GPUアーキテクチャについて語れ [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
>>354
気づいてないようだけどモロに鈍化してるのを誤魔化してるからな?
この壁に対し迂回しようとしてウロウロしてんのがNVでなんやかや持ってきてぶっ壊そうとしてるのがAMD NVIDIAは最大64warp/SM、AMDは最大40wavefront/CUをSMTの要領で同時実行できる
実際にはそれを4 or 2 sub-core/4 SIMD-VUに割り振ってる(基本的にwarp/wavefrontの入れ替えはしないと思われる)からSMTの並列度としてはもっと下がるけど ___
/ノ^, ^ヽ\
/ (・)) (・)) ヽ
/ ⌒(__人__)⌒::: l
⊂ ̄ヽ_| |r┬-| | チョン ざまぁあああwwww
<_ノ_ \ `ー'´ /
ヽ  ̄V ̄ ̄ ⌒,
/____,、ノ /
/ (__/
( ( (
ヽ__,\_,ヽ
(_/(_/ intelのCPU(パッケージ)にAMDGPUが乗って糞団子は何を思うか・・・
intelは自分達がまともなGPU持ってないって言ってる様なもんだからな AmpereはともかくNaviって7nmじゃないの? どうなるかわからん
けどまぁ予定としては7じゃね?
世代的にはvega 系も未だ出たばっかりだし AMDは7nmって発表してるしTSMCって記事も見たから7nmだと思うが
Nvidiaは次はSamsung10LPPを使う可能性があるんじゃないのか?
・Samsung10nmはSnapdragonを1年量産してて成熟してる
・コストをギリ抑えてて広範に使うプロセスと宣伝されてる
・トランジスタは14LPPより1.5倍くらいは積める
・クロックも上がってる
・電力も数割は抑えられてる
・Qualcommの400mm2チップ作っててサイズも問題なし
・何よりNvidiaは現状でもSamsungファブを下位GPUに使ってる
逆にどのメーカーも10nm世代を使わないって言うならもったいないし
使わない理由も無いと思うんだが 7nmまで間がないことを除けば10nm採用する可能性は十分ありそうだね サムの工場は埋まってるだろうから、GFにライセンスさせる方式になるのでは
そうすっと微妙だな >>371
GFがこれからライセンス受けてもライン立ち上げには年単位で掛かるので10nmには縁がない
GFは自社設計に戻るべくIBM開発部隊を吸収して7nm開発に精を出してるところ
Samsungは今年製造のQualcommのモデムとスナドラ855をTSMCの7nmに取られたらしい
それでもファウンドリ独立させて数年でシェアを7%から25%にする目標で投資増して営業掛けまくってるという
NvidiaがSamsungの10nm「も」使う可能性は少なくないと思う AMDもNvidiaもロードマップ短すぎ
3年分くらい作れよ GFやTSMCの状況次第で変わっちゃうのにそんな先まで決められないだろ Zen3やNaviの次世代まで示してるから一応向こう3年分は示してる 昔のインテルは10年位先まで発表してたな
ほとんど達成できてなくて毎年書き直してたけど 3年後5年後10年後の製品化を計画してスケジュール組んでるしな
ただそれが上手くいかなかったり中止になった李が普通にある世界だし
なお中止にはなってもいきなり新製品新プロセスは出てこない辛さ これは噂レベルだけどIntelが単体GPUに再参入するかもしれないって噂があるね
というのもIntelは内蔵GPUのシステムを組む際必ず単体GPUも試作してテストしてるから
このマイニングブームでAMD、NV共に供給ひっ迫してる今こそ単体GPU投入の好機
手なってもおかしくはない IntelはEMIBで機能別に組み立てて無駄なく多様なラインナップを揃えるという青写真だから
実現の暁にはiGPUの流用でdGPUを作れるようになる。 AMDはミドル以下はリネームでしょ?
ハイレベルだけVEGAで 10nm,12nmにしたらリネームなんてできなくなるぞ
1から全部新しい商品になる >>378
グラフィックスよりも主なターゲットはHPCじゃない?
Phiが既存顧客用メンテナンスモードに入った雰囲気出しまくりだしw intel mobileye eyeq5は今年の8月サンプル出荷予定で製造はどうやらGFの7nmらしい >>385
そうか「TSMC」か予想がすっかり外れてしまったw
それにしてもGF(IBM)じゃなくてTSMCとは意外だった。STMicroはIBMとは技術面で親密なのに驚いた。 どうやらeyeq5だけでなくeyeq6もTSMCだな
https://www.eetimes.com/document.asp?page_number=2&doc_id=1333029&image_number=1 >>380
俺はPASCALはもう在庫がなくて、14nmVEGAを流用するだろうと踏んでる。
75w=14nm、120-180w=12nm
性能的には調整すれば180wでGTX1080ti並みの事は軽くできていいんだけどね >>378
インテルのGPU対策はAMD対抗らしいよ
技術的にAMDGPUは模倣しやすい。
同時にATOM撤退と外注で自社の開発リソース浮いたろ。でこれからHBMなどで技術伸びしろがあるAPUを自社生産供給するために
自社GPUに乗り出したとされる
逆に次世代のロードマップ上でAMDは対インテル、対ゲフォに買ってる要素がある
会社にもっと金と技術があったらとっくに圧倒できる状況は作れる
いまのAMDがすごいのは7nmで先行できる可能性があること
ニ〜ズと合致した。
RYZENはインテル、VEGAは用途絞ればゲフォ相手に勝てることだろう >>369
使う可能性はあると思う。AMDのVEGAは一部の特性ではゲフォに勝ってる。
ローエンドのRXVEGA11はGPUパワーのみなら普通にMX150相手に勝ってるからな
VEGAの成長で次世代12nmじゃ圧倒できるか怪しいから、一部製品は10nm目指すんじゃないのかな?
VEGAは低クロックで回した場合、パワー、ワッパでゲフォ倒せるんだよ。
でここで7nm先行されたら競争優位性は崩壊する。
なんでせめて10nm投入しないと勝負できないから、ゲフォはAMD7nmの前に10nm投入してリードしておきたい腹なんじゃないの?
12nmでは7nm迎え撃てず、7nmリリースは遅れるなら10nmやらないほうがおかしいんだよ
幸いいまARMは7nm以降して、10nmはまだ製造リソース余裕あるから、ゲフォチップつくるだけの空きはあるだろ AMD、「Radeon RX 580X」など7製品をひそかに追加
https://pc.watch.impress.co.jp/docs/news/1116700.html
なんでいまさらポラリスのリネーム品出すんだ??? Intel、2020年に「i740」以来の“単体GPU”投入を予告
https://pc.watch.impress.co.jp/docs/news/yajiuma/1127340.html
今から予告したのは(NVあたりを)混乱させるためで
実際売るときにはグラフィック出力あり/なしの両方じゃね? こういう予想もあるね
http://ascii.jp/elem/000/001/696/1696519/index-3.html
>そしてインテルはどうしてもAurora改のために、高性能なGPUが必要である。
(Aurora改=1位を奪回する予定のスーパーコンピューター)
>開発費を回収する必要があり、ハイエンドゲーミングは手ごろな市場になるだろう。
グラフィックありなし版両方出すだろうっと そんなことしなくてもGeforceがやってるのと同じ路線でいいのでは いうほど行き詰まらないと思う
(nvidiaがデータセンターでのGeforce利用を制限する程度には需要がある) >>399
ダメだろ
寧ろあの手のモノならこの間買収したトコのアレで良いって事になる
詰まる所もうある、ゲロフォのデセン禁止は収益性の問題で制限掛けるのは当然
そうしない理由は必然、アレがどうしても苦手な分野が欲しいから
何故AMDから引っこ抜いたのかよく考えるこったな 自社のラインナップにデータセンター向けのものが無ければ
収益性を犠牲にすることなく市場を拡大することができる
ぶっちゃけIntelは挑戦者なわけで、nvidaの収益性を理由としたGeforce禁止令を逆手に取るのが上策
そもそも、ある程度のところまでAVX512使ってねがIntelの基本的な考えなんだから、AMD RADEONやTeslaのようなものを作らなくても困らないはず >>401
そのAVX-512のガン積みアレイ、どうなったかな?
まぁ大雑把に言えばもう一回ララビがやりたいんだろう
ソイツ自体は極めて自然な方向であり帰結と言える
結局のところCPUにSIMD盛るのは効率の面で無理がある、かと言ってモロの固定機能盛りはアルテラで良いしGPUではやらん
なら分けてそれだけ載せりゃ良いわけで
つーことは必要なアーキテクトはGPUでSIMDさんざやった奴とそのアレイに要るデータフロー >>402
sんグル性能を重視するCoreシリーズと、メニーコアによる並列性を重視してたPhiとは一緒にならない
現に、今出荷されてる10nm Core i3でAVX512は有効になってるし、今更、今後(10nm以降)のCore iシリーズからオミットするつもりはさらさらないと思う
(結局がGPUの超並列性に高ベクタな並列重視CPU群は性能効率の面で勝てなかった)
*ちなみにIntelがラジャ氏を迎え入れてやろうとしてるのはGPUなんでLarrabeeeはお呼びでないでしょ >>403
ララはGPUだったろが
ついでに言えば何故あの手のアレイで態々x86を使ったのかと言うことの説明が付かんぞそれは
ついでに言えば将来的にもオミットする必要は無い
AVX-512の実態はただ多連装のSIMDというだけ、故にその実装形態は問わない
お前の言うようにCPUはシングルが重いロジックだ、そこまで分かってればあとは理解できるだろ なにを言いたいのか分からなね
あくまで1コアごとに1AVXユニット/スケジューラーでなく、複数のコア(nvidiaだとSM、AMDはCU、Phiの1CPU コアごと)に一つのスケジューラーだと
それはもうAVX512でもLarrabeeの後継とは言えないと思うから 効率の悪いパイプラインをSIMTで埋めることを前提としたGPUでSIMDを云々してもしゃあないだろうに。 >>406
考え方が逆
それじゃGPUが普及した理由説明出来なくなるでしょ >>408
回路規模の小さい効率の悪いパイプラインを大量に並べてSIMTでそれを埋めることで演算性能を上げたからでしょ。
数万ピクセル以上に対して同じ処理を毎秒数十回行うグラフィックならその手が使える。 それがコンピューティングにも当てはまったということやね
いわゆるDLP処理はプア(それぞれにスケジューラーやキャッシュのない)なコアを大量に積んだほうが性能がでる もともと固定処理だったのを部分的にプログラマブルにしたのが今のGPU。ラスタオペレーションなどは未だに固定処理のまま残っている。
プログラマブル部分をSIMDからVLIWにして自由度を上げたものもあったが性能が出ず消えて無くなった。 >>411
うん、だから逆つったっしょ
同時演算要素数が多いならそれが効率が良くなる
飽くまでSIMDってのは広義処理粒度概念であって、君の言うSIMTはSIMDのアプローチをスカラスレッド単位まで拡大しただけで内包関係にある SISD,SIMD,MISD,MIMD
(後ろの2つは言葉遊びみたいなもんだけど)
広い意味のSIMDでは複数のデータを1命令で処理できればいいんで実装なんでもいい >>411
VLIWはゲーム(DX10あたり?まで)に限れば悪くなかったはず amd 7nmとintel 10nmはどっちが性能上? >>416
モノによるだろ
つかAMDのはTSMC/GloFoだし
C/P考えたら圧倒的にAMD側だろうけど、突っ込めるのはintelだろうな
まぁHP向けの癖に密度上げすぎで使い物になるか怪しいけど >>416
製造プロセスが持つポテンシャルの話なら比べるまでもなくintel 10nmが圧倒的に上
それがCPU性能にどう影響するかはわからない
AMD 14LPPだって元々スマホCPUを作るためのプロセスでポテンシャルはとても低いが
Ryzenはintel 14++製品と肩を並べる性能に仕上がっている
AMD ラボで動くサンプルを見て「とてもいい」と幹部が興奮する7nm
Intel 14++を超えるためにハードル上げ過ぎて失敗「緩く作り直し」を迫られた10nm
今のところこれくらいしか情報が無いが、どうなる事やら・・・ ニューカマーは続報出ないと語れる事ないな
アーキテクトの経歴から何を言えるのか さてNVIDIA Turing アーキテクチャですってよ
https://pc.watch.impress.co.jp/docs/column/kaigai/1138078.html
>グラフィックスGPUの進化の方向は、もはや単純にシェーダプロセッシング性能の拡張にはないと判断した
個人的には↑と違ってリアルタイム・レイトレの浸透速度???なんだけど 高解像度のシャドウやAOでリアルな影を作ろうとするのはある時点で限界になるって事じゃないの
トゥームとかサイバーパンク2077とかは採用する気がする 正直作る方が追いつかないか、或いはCPU負荷増え過ぎてモノにならないかのどっちかって気はする 4K60FPS安定して出せるようになってからにして RTX2000でもPCI Express 4.0には対応しないのか
PCI Express 4.0の規格は完成しているのになぜ対応しないんだろうか グラボじゃあんまり意味がないからじゃね
最早3Wayや4WaySLIもないし
如実に生きてくるのはSSDだろうな >>419
そういえばSamsung Fabでゲフォ生産してたんだね
色々とパク・・・ 設計製造の参考になるようなデータが得られたのかも >>429
thx!
サムスンのほうが省電力でなかなかとか思ってたらクロックなどに結構さがあるのね
最適化の違いもありそうだけど GPUの市場規模
ゲーム向け>>データーセンター向け>グラフィック向け
市場成長速度
データーセンター向け>>>>>>ゲーム向け>>グラフィック向け
intelはデーターセンター向け(aurora)にGPUを開発しそれを利用してゲーム向けを作る >>433
それで要求性能満たしたよって主張してもハイそうですかって許してくれるんだろうか? これってTSMCがIntelの抱える巨大市場を狙えるAMDを重用して
押し出されたNvidiaがSamsungへって流れかね
> ちなみに、NVIDIAは本来、この世代ではSamsungの10nmプロセスを使う予定
> だったと言われている。成熟した12nmにとどまることで、ダイを大きくしても歩
> 留まりを上げる選択を行なったと見られる。
NVIDIAが次世代グラフィックスのために作ったGPU「GeForce RTX」ファミリー
https://pc.watch.impress.co.jp/docs/column/kaigai/1143278.html しかし噂に聞く歩留まりの悪さをウェハ量で乗り切るサムスン流の伝統は健在みたいね
10nmだったら186億トランジスタでも400平方mm2台に収まる気がするが
10nmも量産が始まってもうすぐ2年も経とうっていうのに
TSMCでの754mm2の巨大チップより歩留まり悪くて踏み切れないレベルかっていう NVIDIAの方が成長速度も早く狙える市場規模も大きいのに、それをAMDが押し出すとかアホかいな 現実問題としてx86のデータセンター市場は現状における利幅が糞でかい
またintelのチップの製造規模を考えるとAMDがシェア2割くらいに食い込めれば
TSMCにとってAppleに次ぐ顧客になると思う あとAMDはゲーム機向けがピーク時に年間3000万台くらいあって
これがチップサイズ350mm2超の大型チップだった
このときTSMCへは年間で20万ウェハーくらい発注してたはずでそれもかなり重要だと思う TSMCはNVIDIA専用のファブを持ってる
現実的にはAMDCPUが転がり込んできて追い出されるのはRADEONだろうな 7nmではTSMCに戻ってくると言われてるけどクアルコムもそうだったし
Appleが優先されるTSMCを回避するという発想は不思議じゃないのに
なんで追い出したとか変な考えになるんだろう。 >>440
Nvidiaはファブレス、アセットライトの筆頭で専用ファブは持たない
12nmでカスタムのプロセスレシピを使ってるというのも
通常の16nm世代設備ライン契約の範疇の話 >>442
追い出したとは書いてないよ
押し出されたと書いてる
それは追い出しみたいなTSMC側の観点を含むような話じゃない
TSMCは来るものは拒まずだろうし
ギガファブを新設中だしマイニング減速で設備投資を期初より1割以上削ったくらいなので
キャパシティ的な対応能力もあるだろう
むしろAMDが先にそう動いたことが競合するNvidiaとSamsungの側の思惑を呼び
戦略的な交渉余地を生み出すことに繋がったのでは?という意味で書いた
それが今回の記事のSamsungの10nmで作る予定だったという話や
7nmではSamsungがNvidiaのGPUを作るのでは、という記事になってるのではないかと
https://news.mynavi.jp/article/20180905-689090/ >>444
GP107とGP108の事を考えると先に動いてたのはNVIDIAとSamsungじゃないかな。 もともとNvidiaというのもビジネス条件のタフなネゴシエーターで
MSやSamsungなどビジネスパートナー相手でも訴訟を厭わないし
プロセスが順調だった頃のIntelにもNVチップを製造しろと迫ったほどで節操もない
https://www.forbes.com/sites/briancaulfield/2012/03/22/nvidia-intel-should-let-us-build-chips-in-its-factories/
AMDがTSMCに全振りする形になった状況も
Nvidiaとしては都合の良い交渉材料が出てきたなってくらいに受け取ったんじゃないかと TSMCは金を出せば誰も拒まないよIntelさえeyeq5,eyeq6でTSMCの7nmを使う Samsungが選ばれなかったのは配線お化けのGPUに適したプロセスを提供できなかったからでは 45nm、32nm、22nm、20nm、10nm
と微細化だけのプロセスはdGPUに
使われてないね
ここ10年はHigh-k/メタルやFin-fet
と微細化以外も革新がある世代が
採用されている EUVだとSamsungが現状最も進んでるから
別におかしくはないけどね >>449
それよりずっと前の世代だと、フル/ハーフ両方のプロセスで作ってた
理由はHWの最適化より新フューチャーを取り込んだ新世代アーキテクチャが価値があったから
それからするとGPUも昔みたいな勢いは無いんだなってちょっと残念な感じになった 150nm GeForce 3
130nm GeForce FX5800
110nm GeForce 6600
90nm Radeon X1800
80nm Radeon X1950 Pro
65nm Radeon HD2600
55nm Radeon HD3800 米Intelでコンシューマ事業部門を統括する人が
dGPUも“プラットフォームの中核”として提供するって断言したんだってさ
https://pc.watch.impress.co.jp/docs/news/1147377.html INTELは絶対学習向け32GBグラボとかに
「HBM8GBとオプ種メモリ32-512GBを搭載して疑似40-520GBメモリです」みたいな製品計画してるよな
HBM+OPTANEならメモリワッパとコスパを大幅に改善可能で、現状8GB以上必須で原価60-70$のメモリを大幅に安くできる。
GDDR6×2-4GBで20-30弗+オプ種搭載で40-50ドルで擬似12GBとかできるのがいまのINTEL
メモリ技術がおいついて1-2GBで十分みたいになれば自社でそういうメモリも作ってコスト抑えて、メモリ調達コストを他社の半分にできる
40弗で8-12GB環境を作ったらINTEL製のやすいGPUのせて原価100弗の定価19800円で(代理店圧力で卸価格は16800円の定価19800円)
1080×12GBみたいな製品を投下できる
これがINTELの凄みで恐ろしさ、ハイエンドや学習用で32-512GBでお値段98000円みたいな製品投下したら
マイニング性能アホ上がって業界の勢力図変わるぞ。こういうことを絶対INTELは企図してる。
衰退したマイニング業だけど、超コスパも性能もいい製品リリースできれば十分売れてマイニング需要を掌握できる
当然企業向けのニーズも掌握できる ■ このスレッドは過去ログ倉庫に格納されています