【ムーアの法則】「ムーアの法則は終わった」、NVIDIAのCEOが言及 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
http://eetimes.jp/ee/articles/1706/05/news053.html
台湾・台北で開催された「COMPUTEX TAIPEI 2017」で、NVIDIAのCEOであるJensen Huang氏は、「ムーアの法則は終わった。マイクロプロセッサはもはや、かつてのようなレベルでの微細化は不可能だ」と、ムーアの法則の限界について言及した。
[Alan Patterson,EE Times]
2017年06月05日 11時30分 更新
「ムーアの法則は終わった」
「ムーアの法則は終わった」。NVIDIAのCEO(最高経営責任者)を務めるJensen Huang氏は、アカデミック界で長年ささやかれてきた説について、大手半導体企業として恐らく初めて言及した。
ムーアの法則は、Intelの共同設立者であるゴードン・ムーア氏が1965年に、「トランジスタの微細化は非常に速く進み、集積度は毎年倍増していく」と提唱したことから生まれた。ただし、微細化の速度は1975年に、「2年ごとに2倍になる」と変更された。
Huang氏は、台湾・台北で開催された「COMPUTEX TAIPEI 2017」(2017年5月30日〜6月3日)で、報道陣やアナリストに向けて、「スーパースカラーによるパイプラインの段数増加や投機的実行といったアーキテクチャの進化によって、ムーアの法則のペースは維持されてきた。だが現在は、そのペースが鈍化している」と語った。
同氏は、「マイクロプロセッサはもはや、かつてのようなレベルでの微細化は不可能だ。半導体物理学では『デナード則』をこれ以上継続することはできない」と明言した。
http://image.itmedia.co.jp/ee/articles/1706/05/mm170605_moore.jpg
「COMPUTEX TAIPEI 2017」で登壇するNVIDIAのCEO Jensen Huang氏
「MOSFETの比例縮小則」としても知られるデナード則は、Robert H. Dennard氏が1974年に共同執筆した論文に基づいて名付けられた。その概要は「MOSFETは小型化するだけで高速かつ低消費電力になる」というものだ(関連記事:NVIDIAがMOSFETの比例縮小則(デナード則)を解説(前編))。
デナード則に基づいた微細化が限界を迎え、ムーアの法則も限界に近いといわれ続ける中、半導体業界は成熟期に入った。次世代プロセスの開発に必要な数十億米ドルの投資は、ほんの一握りの半導体メーカーにしか行えなくなっている。これまでのところ、16nm/14nmノードを適用したチップを製造できている半導体メーカーは数社だけだ。微細化が進むにつれて、設計ルールの定義も曖昧になってきている。
プロセス技術の進化が減速したことで、ここ数年は数十億米ドル規模の企業合併や買収が増え、業界の統合が急速に進んでいる。
Huang氏はこうした状況の中、グラフィックスプロセッサについて、半導体業界に“暫定協定”を呼び掛けた。「GPUは今後も継続的な進歩が期待できる」(同氏)という理由からだ。
http://image.itmedia.co.jp/ee/articles/1706/05/mm170605_moore2.jpg
Huang氏は、半導体業界の今後の進化は、GPUの進化が支えると主張した
同氏は、「ディープラーニング(深層学習)の分野ではGPUの活用が進むと予想される。NVIDIAは、当社がシェアを独占してきたコンピュータゲーム分野だけでなく、AI(人工知能)向けの新たなアーキテクチャとしてGPUを開発している」と続けた。
台北のクレディ・スイスでアナリストを務めるRandy Abrams氏は、NVIDIAはAI向けの半導体IC開発に対して極めて強気に進めていると話す。NVIDIAは、ディープラーニング向けとして、同社の次世代GPUアーキテクチャ「Volta」を採用したGPUを、TSMCの12nmプロセスで製造することを明らかにしている。
【翻訳:滝本麻貴、編集:EE Times Japan】
原文へのリンク http://www.eetimes.com/document.asp?doc_id=1331836& インテル主導のCPUの進化は限界
GPUやってるうちらヌビディア最強って言いたいだけ 日本のメーカーは汎用品(メモリ)を作って喜んでいる。 14オングストロームプロセス!?:
IMECの半導体ロードマップ展望 (1/3)
http://eetimes.jp/ee/spv/1705/24/news048.html
IMECのプロセス技術関連のベテラン専門家であるAnSteegen氏が、
2017年の半導体ロードマップを発表し、
半導体プロセスの微細化に対し楽観的な見方を示した >>1
こんなときに幼稚で無責任なギャンブルをやって、その上いい加減な運営を行って巨額の損失を出した東芝の無能老人共、東芝が完全に日本人全員の敵になるかどうか、さっさと選べ >>7
表面的数値あげても意味ないんだよ、
一番細かい部分の集積度があがっても、全部をそれにできないかぎり
インテルの14nmと某T社の7nmが同じ性能になる原理がある。
そして性能のボトルネックとなっているのは集積度ではなく、メモリ原理
による動作速度の遅延によるもの、SRAMですべてを作ればいいが、
現実的にDRAM(コンデンサー原理)を使えばeDRAM等であっても
コンデンサーが1ビットで保存できる電子の数の下限は変更できない。
そしてそのコンデンサーの容量が遅延速度そのものである。
その1素子だけをみた速度は100MHzすら超えられない。 科学なんて時空的に限定された中でしか成立しない特殊ルールだから仕方ないです >>21
量子プロセッサは無理、量子トンネルと量子エンタングルの原理は違うので
前者のトンネルでどんなことしても量子エンタングルの足元にも届かない、
つまり従来コンピュータよりコストが高く使い用途がない(汎用性が無い)
D−Waveのそれは量子エンタングルの原理を途中から否定しているので
そんなまがい物はエセ量子コンピュータにすぎない。使えない。
量子コンピュータの規模を集積できないのは量子もつれの突然死という
物理現象を克服できないからの理由の1点である、回路が生成されても
突然崩壊してしまう原理ということ。
同じ量子原理を使った光集積回路である、光コンピュータのほうがはるかに
現実的で近い将来登場する。光コンピュータの性能上限はまだ発見されていいない。 量子効果が出てくる領域に突入したってことなんだろ?
その副作用が大きすぎるんだろ? このままでは
売り上げよりも開発費用のほうが
上回っちゃっうって事だな カリフォルニアでヤンキーの家に行ったら みんなデブ( ´ ・ω・ ` )
日本人じゃ不可能な体型のママが俺につけ分けてくれるんだけどサラダの時点ですでに俺の普段の一食分。
しかも皿を見せて「( ´ ・ω・ ` )モーア?(もっといる欲しいか?)」って聞いてくるの 冗談だと思って俺は苦笑い(;´Д`)
で、肉が焼きあがって、またつけ分けてくれるんだけどアホみたいに肉乗せて大味なソースをドッバドバかけてまた「( ´ ・ω・ ` )モーア?」
って、おいおい、こいつらさっきのはアメリカンジョークじゃなかったのかよ?煤i゚д゚lll)
絶対に食い切れるとはずがと思いながら、残したら失礼と死ぬ気で食べた。 隣り合う原子の電子の存在状態が曖昧になる領域、
それは突然くるわけじゃなく原子間が狭くなるほど回路として成立しなくなる
情報処理するには情報が伝達し判断するトランジスタとの信号を区切り
絶縁しなければならないのに隣のそれが近づきすぎて隣の信号と区別できなくなる
区別できないものが熱になる。
例えば電車の架線の電圧と電車の上にのった人が感電する距離を考えて
その距離と電圧を同じ比で縮小すればわかる、
すでに感電して危険な領域を超えて接近している。うまくそれらを絶縁させる
構造を作っても狭まる集積部分の熱は減らせない。
集積せずに細かくするなら可能なんだけど集積度が高いままなら集積するほど
極所に熱が密集する、これを冷やせる限界があるってこと。
そして半導体が半導体で機能する温度より低くないとダメってこと。 GPUが配線お化けの世界で、リーク電流の影響が大きいからね。
頑張って微細化を進めても恩恵がどんどん受けられなくなってきてる。 ムーアの法則とはいうものの、「Kの法則(かの国に関ると・・っていうアレ)」とかと同類にすぎないからなぁ ∧∧ アナリスト
(д`* )
(⊃⌒*⌒⊂)
/_ノωヽ_) 今こそ日本は総力をあげて粘菌コンピュータを実用化してGoogleを潰しに行くべき >>1
社名がまちがってるぞ
× NVIDIA
◯ nVIDIA >>36
さあ一緒にハード屋になるんだ
良いぞハード屋は
物理現象が相手だからな 144M95センチ
1440M9.5センチ
3G4センチ
14G0.95センチ
チップの端から端まで信号届くのにこの距離が限界
一ミリ径のCPU作るしかないなw IBMが、5nmのチップを発表したみたいだよ。
ttps://techcrunch.com/2017/06/05/ibm-creates-a-new-transistor-type-for-5nm-silicon-chips/ というかcpu gpu hddssd マザボ ソフトウェアの総合というのがばれた
今は軽の規格のようにスマホタブレットの総合
これもcpuだで図っても意味ない AIはあきらめてくれ。もう自分が神になるしかないよ。 ムーアの法則が止まってもコンピュータのスピードは上がり続けるって主張でしょ
それは間違ってないけどGPUだけがその役割を担うというのは同意出来ない
まだまだトランジスタは進化するだろうし大容量キャッシュによる高速化もあるだろうしシステムの3次元統合による高速化も期待出来る >>54
並列化の速度は上がっているが、シングル性能は亀だよ。
そのトランジスタが進化しようが、情報伝達(伝播)という物理法則のは
足止めしかない。
100GHzで動くトランジスタはあるのに極所熱密度の問題が解決できない、
トランジスタを小型化してもより集積し極所熱密度の問題が解決できない
三次元にしても縦方向に熱の極所集中になる問題はどうにもならない、
熱分散して相互の距離を広げれば遅くなる。
キャッシュは増やせばいいものじゃなく応答速度の緩衝剤にすぎない、大容量にすれば
解決するとか前世紀のキャッシュができた当時の発想な。
電子計算機の電子を扱う物理法則がそれを許さない。方法は1つ、
電子を使わない計算機の実現だけ。
貴方の浅い知恵じゃ無理。 ■ このスレッドは過去ログ倉庫に格納されています