【半導体/集積回路】インテルは「ムーアの法則」を終わらせない──新たな“技術リーダー”が考える半導体の未来[07/11]
■ このスレッドは過去ログ倉庫に格納されています
インテルは「ムーアの法則」を終わらせない──新たな“技術リーダー”が考える半導体の未来(記事全文は、ソースをご覧ください。)
https://wired.jp/2019/07/10/intels-new-chip-wizard-plan-bring-back-magic/
2019.07.10 WED 18:30
WIRED
TEXT BY TOM SIMONITE
半導体の集積率が18カ月で2倍になるという「ムーアの法則」の限界が指摘されるなか、その限界論に異を唱えた男がいる。インテルのシリコンエンジニアリング担当上級副社長、ジム・ケラーだ。アップルやテスラの半導体設計を支えてきた業界の大物は、いかに半導体の進化を加速させ、インテルの存在感を再び高めようというのか。
https://wired.jp/wp-content/uploads/2019/07/business_intel_1158822168.jpg
写真:XAKAR/GETTY IMAGES
この6月の最終日、サンフランシスコ一帯をプライドパレードが虹色に埋め尽くした日曜のことだ。インテルは街のシンボルであるコイトタワーのすぐ近くで、ややマニアックとも言える少人数のパーティーを開催していた。
このイヴェントは、過去50年の半導体産業における飛躍的な品質の改善が、どれだけ技術や社会の進歩を加速させてきたかを祝う集まりだった。スタートアップやヴェンチャーキャピタル、大手テック企業から100人以上が参加し、5時間にも及んだ。誰もが半導体をテーマにしたカクテルを飲みながら、いかに砂がシリコンチップへと加工されるかといった会話を交わしていたのである。
そして、まだ“パーティー”は終わっておらず、勢いは持続するのだという主張が飛び交っていた。
「これからも、まだまだ続きますよ」と、イヴェントの共同主催者である半導体業界の大物は語った。発言の主は、インテルのシリコンエンジニアリング担当上級副社長として昨年入社した、ジム・ケラーである。
そしてケラーは、インテルの創業者のひとりであるゴードン・ムーアが54年前に提唱した「半導体の集積率は18カ月で2倍になる」というアイデアに触れ、こう語った。「ムーアの法則の勢いは衰えないのです」
・成長の機会を失ってきたインテル
今回のイヴェントの目的は、半導体産業が過去半世紀に記録したのと同じくらい大きな成長を、低迷する名門企業であるインテルが実現できることを明確に示すためのものだった。
インテルはモバイルデヴァイスの市場でチャンスをつかみ損なった。そしてポケットサイズのガジェットの普及に伴い、かつてインテルの独壇場だったパソコン市場は縮小していった。アップルやテスラの躍進を支えてきた半導体業界の大物であるケラーは、そんな厳しい時期にインテルに加わった。
いまでもインテルは、クラウドコンピューティングを支えるサーヴァー用チップの市場では支配的なシェアを握っている。しかし、最新の2世代のチップ技術の開発では出遅れている。
今年4月にインテルは、5Gのワイヤレス端末向けチップの事業を断念すると発表した。これはモバイル技術の次なる大きな波から5Gから遠ざかることを意味する。さらに、アップルの「iPhone」の一部にインテル製モデムを搭載する取引からも撤退することを明らかにしている。翌月になってインテルは投資家に対し、今後2年にわたって利益幅の縮小が予想されると説明している。
・技術開発でも出遅れ
こうした懸案材料は今回のイヴェントではほとんど語られず、技術の歴史と未来に焦点が当てられた。会場にいたインテルの従業員たちが顕微鏡の横に立っており、参加者たちは微細な最新のトランジスターをレンズ越しに覗き込むことができた。このトランジスターは、電流を1秒間に数十億回もオン/オフできる高性能なものだ。
イヴェントにはケラーに加えて、インテルのチーフアーキテクトであるラジャ・コドゥリや最高技術責任者(CTO)のマイク・メイベリーがスピーカーとして登壇した。コドゥリはアップルで一緒に働いていたころから知っているケラーを、自分がインテルに誘ったのだと語った。
コンピューティングの歴史は、インテルやムーアの法則と密接に結びついてきた。これまでにインテルは何十年もの間、新しい素材や加工技術の発明、そしてトランジスターの微細化によって、性能を2倍にするペースを維持してきた。最近ではこのペースが鈍化しており、インテルとコンピューティングの進化との結びつきに、ほころびが見えている。
■■以下、小見出しなど抜粋。続きはソースをご覧ください。
・ムーアの法則は死んでいない
・新たな半導体設計のアプローチ
・アップルやテスラを支えた技術リーダー
・インテルの将来的な成果はどう変わるのか? 「ムーアの法則」は、技術的には、もう、終わっているのでは?
多コアCPUとは、事実上、複数CPUという意味だ。
多コアCPUは、CPU間だけを、特別に速い密なデータバスで繋ぎ、
他のメモリなどとCPU間のデータバスは、比較的、遅いデータバスで繋ぐだけだ。
また、CPUが実行する命令を確率的に予測して、無駄になるかもしれないが、
データバスを常に最大限に利用するように設計することで、
ノイマン型コンピューターの命令実行の最大のボトルネックになっている
データバスの利用効率を最大化させようと目論む設計仕様だ。
ただ、ハードウェアの生産は機械化できるから、生産の価格費用効率は上がる。
だから、コア数の増加に比べて、価格の上昇は抑えられる。
そういった価格的な意味での「ムーアの法則」は継続しているのかもしれない。
最近はGPUのように、コンピューターにしばしば要求される頻度の高い計算に特化した
第二のCPUとも呼べるような専用ハードウェアが、標準装備されるようになった。
ニューロマシンAIの専用ハードウェアとか、特定計算だけに特化した専用ハードウェアを
搭載するような、非ノイマン的な部分を持つコンピューターも増えてくるのかもしれない。
https://item-shopping.c.yimg.jp/i/j/edge-collection_ter0024
【CPU】AMD、16コア32スレッドの「Ryzen 9 3950X」発表 749ドル Su氏「『もっとコア数の多いモデルは出さないのか』答えはYESだ!」
https://egg.5ch.net/test/read.cgi/bizplus/1560251642/ 自分が40年くらい昔に、考えたアイデアでは、
メモリとmini−CPUをそれぞれ直結しているかのように、メモリ=CPU間データバスを運用する、
一つのコンピューターの中に、多数のミニコンピューターが入っているような設計仕様を考えた。
確かに、高速計算は有用だ。
しかし、現実的なコンピューターでは、それほど高速計算が必要でない場面も多い。
多くのプログラムは、無数の子プログラムで構成されており、
それらの子プログラム間の、データ通信は疎である(カプセル化・データ遮蔽)ことが多い。
つまり、それらの子プログラムの多くは、ほぼ独立したコンピューターで実行可能だ。
子プログラムが、演算結果を親プログラムに返却するときにだけ、各プログラム間の連絡が必要になる。
だから、高速なデータバスが必要なのは、しばしば、各、子プログラムの内部だけであり、
その他のデータバスは通信速度が遅くとも、問題は少ない。
ただ、各、子プログラム間のデータ移動は、頻度は少ないが、大規模になる場合がある。
で、提案としては、それぞれの子プログラムにコンピューター内ミニ・コンピューターを割り当てる。
で、特別な命令で、それぞれのミニ・コンピューターに割り当てられたミニCPUとメモリの組み合わせを、
一気に交換できるようにして、メモリチップまるごとで、データを他のミニCPUの管轄下に移動させる。 こういったアイデアは、素材上ではなく、アーキテクチャー上のアイデアだ。 高速データバスは、物理学的には共鳴現象を利用して、コントロールする。 高速データバスの物理学的な仕様についての詳細は、30年前くらいに考えて、ほぼ完成していたが、
もう、大分、忘れた。 9年前に買ったPCのメモリが8Gだったわけだが、あれから10年近く経った今のPC市場見てもメモリ搭載量の主流は8Gだな。 原文読んだけど、無駄話ばかりで、どう終わらせないのか真ん中あたり1文だけしか書いてない。
本質的な部分(技術的な話)は、2018年の記事と何も変わらない。 ムーアの法則って今は並列処理がメインになってるけど公正な比較ができるの? 量子コンピュータもますます盛んになって来たなあ
計算の種類によってGPUをフル活用したりどっかの信頼のできるクラウドの量子計算サーバーに繋いだり、なんて
時代になるのかなあ >>3
半導体基板はインシュレーター層を作れるのが必須条件だけど、ダイヤモンドを酸化してもC02になって、酸化皮膜を作れないって根本的な問題を解決できない限り無理 今こそウリのギジュチュが必要なはずニダ
だから日本はユシュチュ規制を撤廃するニダ >>3
シリコンエンジニアリングの人がそっちに行くはなしするのかな? CPU性能頭打ちしかけてるじゃん
クロック周波数はすでにだしコア数ももう増えそうにないし お前のところはプロセス停滞しすぎなんだよ
この状況でムーアの法則とか言われても誰も信じないわ ゴードン・ムーア氏もこうなる未来を想像できただろうに。 ジム・ケラーはどうすんだろ
AIのほうじゃなくて既存のCPU部門立て直しもやらないとダメだろ CPU クロックも 2MHz くらいから順調に 3GHz くらいまで上がってきたのに頭打ち。
いまごろ 1PHz くらいで動いてたはずなのに。 microSDはあのサイズで1TBとかわけわからんことになってるのになあ 2011年に買ったPCの性能がまだまだ見劣りしていないことに驚いている。 売れなくなってきてるから増大する製造コストを支えきれないとかじゃないのか テクノロジー的には可能なんやろうけど、それ消費する需要がないやろ。
ワザと重い処理をでっち上げる位や。 自前のファブでプロセスが進まないとか最低だ
何でこんなことになったのか インテルは独占禁止法のからみで、ムーアの法則は成り立たないと方便を言ってきただけだろう。
AMDが潰れればインテルが解体されちゃうから。
だからできるけどできない振りをしていた。
だがAMDが力を付けてきたので、これからはムーアの法則がやはり続くと言うのではなかろうか。 (株価対策だなんて言えない...)
正直言ってパソコンの性能なんか、ITバブルのおかげの2000年前後でとっくに止まってるよな。
RAMとHDDの下がりまくり増えまくり、CPUのGHz到達競争、VGA乱立、知らんまにネット回線普及
の90年代後半が一番おもろかった。 ムーアの法則は、依然としてパーソナルな性能に対してのものであって
メインフレームならそれらを大量に使う事による工夫だけでよいレベルだろ
それ以上の何かをぶち抜くなら量子コンピューターとか他の何かじゃね? そんな事言ってる裏で今頃インテルは血眼になって雷善の脆弱性探してると思うよ まさかインテルが首位陥落する所を見る日が来ることになるとは思わんかったわ。 イヴェント
デヴァイス
サーヴァー
↑最近これ言うとカッコいいってことになってんの >>37
アップルUが出て、日本からもベーシックマスターとかPC8001とか続々と出て、何だこの機械は、新しい時代が始まる、 とワクワクが止まらなかった70年代後半が一番おもろかった
(70年代後半の留学中にLSIチップの雑誌広告写真に猛烈に感動して切り取ってずっと持っていた あれが自分の原点だ 孫正義)
複雑なPCゲームが続々と出始めたり、フロッピーディスクだったところハードディスクが出て驚いたり、一方でPC98の画像チップを直接いじるプログラムを大勢の素人が組むとか、まだPCの隅々まで抑えられ理解出来る状況だったり、80年代後半が一番おもろかった
それぞれの時代で言えるがな
まあ2010年代後半が一番面白いということになる奴は現役10代でさえほぼいないだろうのは確かだが PC自体はほぼ枯れたジャンルだからな >>43
そういやパソコンオタクになったワイが、学生当時何で70〜80年代に自分で持ってなかったんかな?
と思ったら、インベーダーでアーケードゲームに行ったからだわ。
パソコンは金持ちの同級生(ゲーム名じゃないよ)の家で触らせてもらってた。
自分のPCは、社会人になってからPC98とPC/ATが逆転してWIN95が出る出る噂フィーバー時に
仕事用に買った。
やっぱり80年代PC→90年代PCはケタ違いに性能が上がったつーか別物だけど、
00年代PC→10年代PCは中身そんなに変わらんしな。 ムーアの法則なんてとっくに終わってるだろ
物差しの方を変えて「成長は鈍くなってるけど、まだギリギリムーアの法則に乗ってる」と嘘ついてるだけ CPUのクロック数の成長は弱まったけど
1つのチップに複数のCPUを入れて
今はその数をどんどん増やして 8年前に買ったPCがメモリー8Gだった
今年買い替えたのもやっぱり8Gだった。
集積率が上がってるなら128Gくらいになってなきゃおかしい 平面的にマルチコアにするんじゃなく、積層で層分のコア数ってやってくんだろな 当時を思い出すとpc98からだから
令和になった今ではコンコルドくらいにはなってるな >>53
128GB以上載せてるPCや
サーバが会社にたくさんあるけど
個人利用には必要ないでしょ
需要がないから安くもならないし使われない
CPUが頭打ちでGPUが今は伸びてると思う 夢だけじゃ食っていけない
Intelとamdとgafaの株価比べてみ >>37
さすがに2000年はないな
せめてFinFETになったIvyBridgeからと言えば騙せるのに
SSDが当たり前になっったのがここ5年位の話だから、実用速度という観点ならそこで劇的な進歩があった たしかメモリを積層化して
複数の層にしてなおかつその階層を垂直方向につなげるんでしょ? どうも4コア8スレッドみたいにスレッドを二倍にしても性能は1割ぐらいとかあんまりアップしないらしいね
それでいまは6コア6スレッドみたいにコア数を増やすようにしてるらしい
4コア8スレッド
6コア6スレッド
二つを比べるとスレッドが多い方がそうとう性能が上みたいにおもうよね?
じっさいはコアを増やす方が直接的にそのままのコア数分性能があがるらしい
スレッド増やしてもほとんど誤差程度しか性能はあがらないんだって >>62
ロジックチップも積層するらしい
https://pc.watch.impress.co.jp/docs/news/1195693.html
22nmプロセスの低クロック低性能低消費電力のコアと10nmの高クロック高性能高消費電力のコアを積み重ねたCPUを出すってのはアナウンスされてる >>63
バカコアを増やしても性能は上がらない。
更にその分身を増やしても性能は前々上がらない。 てか、何とかテクノロジーと称してクロック数を下げたりコア数を増やしたり
してる時点でもはやネタ切れなのは明白だしな。
64bitが今になってやっとこさ使われたぐらいで、
なんだかんだ言ってもP6から画期的な進歩もないし。 現在インテルを圧倒し始めてるAMDのプロセッサの設計者ってのが皮肉やねw
まあ今回の話の対抗はTSMCやサムソンの方か > イヴェントにはケラーに加えて、インテルのチーフアーキテクトであるラジャ・コドゥリ
ていうか元AMDばっかりやんか クロック競争してた頃の勢いでずっと続いてたら今頃200Ghzぐらいかね ユーザーのプログラムからは見えず、動作を確実に制御できないキャッシュ機構を
CPUから追放すれば、もっと安全になるはずだ。 認証処理後キャッシュを消去すればいいon/offは出来るよなoffにしたら消去で 7nmでほぼ限界だろ
距離が短くなってるうちは電圧下げれるんだから続いてる 25ナノあたりが最先端かと思ってたら、いつの間にか10ナノ切っているのか。 5nmって何が5nmなの?
数字は当社比の値で物理的な寸法と関係無くなってるじゃん 20年前はμだろ
ムーア的に2の13条とかなんだから 三年で四倍と言われてたのは縦横二倍なので配線も半分の細さ
20年で7乗近くだから
更に20年前からは四年で四倍に遅くなったので5乗なので130nmが5nm >>73
クロック自体はやっぱり光速という限界がある以上
1GHzでも数十cmしか信号が伝わらないのだから物理的に性能を向上するにはコアを増やすしかなかったと思うよ >>87
まあディレイは光速とは全然関係ないところで決まってるけどね 面倒臭いから1Gb位のOS作って
クロックは200Mhz位でいいじゃん
現状まったく体感速度早くなってないじゃんよ >>63
スレッド化は別のプログラムが使用中のコアの余力部分を、また別のプログラムに一時的に借りさせる機能
システム全体でのCPU利用効率を上げるための機能であって、単純性能を向上させるものではない >>90
何がめんどくさいのか分からないが、1GB以下のOSなんてたくさんあるぞ
そのOSを普段使いする方がめちゃくちゃめんどくさいけどな ハードウェア性能の絶え間ない向上こそがイノベーションの根源だったわけで
そこが頭打ちになればすぐに行き詰まるのは目に見えてる。
GPUやFPGAに期待したいところだ。 >>4
単位面積当たりの
という概念が抜けてますよ >>93
GPUの性能向上も鈍化したし、FPGAも簡易ASICなわけで
ブレイクスルーが無い限り、ハードウェアの単純な性能向上は力業じゃ無理でしょ CPUのクロック向上も鈍化
それで並列方向に進むが
コアをいくつも並べれば、シリコンなどの材料費は増える
単位計算あたりの電力使用量が改善されなければ、電気代も増大
かくしてチップ性能の向上は頭打ち
PC、スマホ関係の進化
それを前提とした各種サービスの進化
そのあたりも停滞
AIだの自動運転だのも停滞
大量のCPUで並列度をあげるスパコンランキング的な性能向上は可能かもしれないが メモリが3D積層化しているんだから、CPUなどのロジックも3D化されるんじゃないの デナードのスケーリング則を知らずにムーアの法則だけ語ってもねー
消費電力がどうなるかとか理解できんから、>>1みたいなポジトークにあっさり騙される >>97
>>98
Intelはマルチダイの複数層重ねたヤツを研究中よ
AMDのinfinity fabricをただパクるだけでなく発展型として導入するつもりのようだ
下層ダイに貫通孔あけて電力供給、データ通信可能でプロセスが異なるダイも積層可能とのこと
正直盛りすぎで出来るか不安な内容だができれば絶大な効果をもたらすだろう >>3
"これまでにインテルは何十年もの間、新しい素材や加工技術の発明、…"
のことなら配線やゲート、それらを被服する素材。銅配線とかHKMGとか(アルミ配線や酸化膜の置き換え)
>>82
今はもう単なるプロセスノードの名前
>>89
TSMC的な5nmは来年量産可能。三星は3nmが開発出来るまで7nmの改良版(7→6→5→4)で頑張るらしい。これでまたインテルとの名前の解離が大きくなるなぁ。
>>97 >>100
積層ならTSVなのはそりゃそうだろ
なんてやつ? >>104
積層だよカス
2つ目の「Omni-Directional Interconnect(ODI)」は、パッケージ内のチップレット間の通信にさらなる柔軟性を提供するというもので、
同技術によって、トップチップはEMIBと同様にほかのチップレットと水平方向の通信が可能で、
さらにFoverosと同様にベースダイ内のシリコン貫通ビア(TSV)を介して垂直方向の通信も可能となる。
ODIでは、従来のTSVよりも大きなTSVを利用することでパッケージ基板から直接トップダイに電力を供給でき、かつビアが大きいため抵抗が低く、より広い帯域幅とレイテンシを実現しつつ、堅牢な電力供給を提供できるという。
またベースダイに必要なTSVの数を減らせるため、トランジスタの面積をさらに確保でき、ダイサイズを最適化できるとしている。 >>106
いや全然違うんだけどw
お前積層かどうかも分かってねえの?
つうかTSMCのCoWoS系の話ならHBMとかでとっくに積層できてんだから>>97のような話にならんだろw
なんでわかりもしねえ分野で煽りに来るんだ? シュリンクと比べて積層とかほとんど何の意味もないので、どうでもいいんだがな クロックをうんとさげて10MHzぐらいにして、CPUコアのキャッシュの量をうんと
減らして、命令もパイプラインはやめて単純明快にして、そのかわりコアの数を
うんと増やして対処したら、コアあたりの性能はうんと下がるけれども、コアの数で
性能を稼ぐ。そういったアプローチはどんなもんだろうか。あとはメモリのバンド幅
が問題だ。 集積率も良いけど
周波数も上げろや
ギガ越えたときはいずれテラの時代が来るのかと楽しみにしてたのに
5G程度で止まってんじゃねーよ >>110
単にゴミクズみてえな性能になるだけだわな いつか技術の壁にぶつかって、大手の半導体メーカーが倒れるときが来るのだろうか?
それとも技術が単に停滞して、製造技術の向上が停まるが、製品のバリエーションや
要求に応じてそれぞれ違う製品を作ることに変わるだけだろうか? ほほー、
ケラー氏は、
・AMD時代は、天才的な研究で画期的新製品 Ryzen の開発に貢献してたのに、
・Intelに入ったら、投資家向けの酒飲みパーティで、無根拠なスピーチで詐欺に貢献、ですか。
年はとりたくないもんですねー。 過去の成功体験(ムーアの法則)が忘れられずに、いつまでも縮小を目指しつづけて
気が付いてみたら会社も縮小しているということになりそうだね。
巨艦大砲主義から航空機による爆撃の方向に転じたように、技術の壁にぶつかったら
方向転換が必要だ。 なんでこんなすぐ破城するような法則を頑なに守るんだよw >>96
じつは、現在のレベルまで一気に上げることが出来た
途中のPen4 だとか、などなど 大規模なやらせ だったのだ
なぜなら、電子系では中心になるはずの日本企業が
全く何の興味も示さなかった
この仮説で正しいだろう >>117
今後は、AMD が躍進したように より安価な製品
の方向へと、収斂していくのでないかな nm値 の世界標準て、無いだろ
nm値 が下がってても、熱は出てるんだけど これまでは、nm値 が下がると、より低熱になって電気代が安くなるはずだった コア数増やすのは限界が見えてるだろ
CPU周りがボトルネックになってる現状を完全に刷新しない限り何やっても小手先 >>123
新しいAMDのCPUは64コアまで増えてるけど、きちんと性能出てるみたいだぞ 多コア化しても性能出すには多コア用に最適化されたソフトウェアが必要だよ
多コア化はハードウェア的進歩というよりソフトウェア的進歩 https://gigazine.net/news/20190820-wafer-scale-engine/
>Wafer Scale Engineは4万2225mm2の面積に
>40万基のSLA(スパース線形代数)コアが並び、
>コアの接続帯域幅は100Pb/sだとのこと。
>また、Wafer Scale Engineには18GBのSRAMが搭載されていて、
>9Pb/sのメモリ帯域幅がうたわれています。
>製造はTSMCの16nmプロセスによるものだとのこと。
https://www.theregister.co.uk/2019/08/26/hot_chips_roundup/
> Discussions between hardware geeks estimated that power consumption
> could suck up anywhere from 14 to 15 kilowatts,
#これ1枚で普通の家のブレーカーが確実に飛ぶな。 家庭用には(まだ)無理だ。 積層の3D化でムーアの法則回避する方向性だが、積層し多分だけ
露光回数は当然ふえて歩留まりも当然として回路数に比例するので
単価は下がらない、ムーアの法則があっても単価さがらないと次の投資にならず
半導体の集積度アップにはつながらない。 回路の縮小で得られるメリットはもう絞り尽くしてその限界に到達したとみるべきだな。
これからはどうすればよいのだろうか。
今後は数と量と電力の物量作戦あるのみか?
チップ間の相互結合を如何に能率良くコンパクトに実装するかというぐらい?
電荷の拡散による方式のトランジスタやFETから量子現象を用いたデバイス
(量子コンピュータではない)に移行すれば、しばらくはまだ小さく電力を
減らしていけるかもしれないが、それだって限度があるだろう。原子分子の
サイズよりも小さくすることはできないのだから。 インテル値下げしてるだろw そもそも競争原理でムーアの法則が成り立っているのに終わるわけがない
独占販売しない限り終わりとかないんだよ >>128
微細化で集積度上げると速度は上がり消費電力は下がるが、多層化じゃどっちもない
多層化が効くのはフラッシュとかの消費電力が小さい素子だけ ついに半導体製造会社がどこも儲からなくなって、一斉にヤーメタとなり、
もうそれ以降はCPUもメモリもフラッシュも新しい製品は手に入らなくなった
とすると、中古の計算機などが貴重な資源となってそれから外してまだつかえる
チップを再利用したり、いろいろなことが起きるようになるだろうな。
そうやって中古の部品が10年、20年と使われて半導体がまったく進歩しない状態
が続いたら、ソフトが著しく進歩する素地ができることになる。 ゴードン・ムーアはインテルの名誉会長なんだから
そりゃ副社長はヨイショの1つもするわな >>132
ハードの進歩でこれまで実用的じゃなかったアルゴリズムが脚光をあびることはあっても逆はないよ ベイズ統計も、ハードの進歩で脚光浴びた例だよなあ
かつては担当者の直感頼りの大雑把な確率で計算してたのに
ビッグデータが活用できるようになって実用化したような 光でチップ間の通信を言うならともかく、光導波路なんて今のシリコン上のメタルよりはるかに
太いから集積度ぼろぼろなのに、馬鹿だなあ Intel Mask Operation: An Inside Look at a Critical Manufacturing Step
https://youtu.be/u3ws0UebnSE >>137
可視光を主演算部分の回路でシリコン基盤で配線するというのは、
そんなこと研究している組織はない、100GLAN接続などの接続部だけな。
IBMなどがメモリやらチップセットとCPUを結ぶ配線で試作しているのは
紫外線からX線の領域である。
DRAMなどへの配線数の総数はシールド線含めて膨大であり、それと比べて細ければいいという話だ。 >>137
SoCの時代においてチップ間とシリコン上のそれとは区別がつかない状況を学べ。
同じプロセスにおいて便宜上回路を同一シリコン基盤の上にあるからその周辺回路や
CPUは別だという考えとか歪んでいる。 ■ このスレッドは過去ログ倉庫に格納されています