AMDの次世代GPUについて語ろう [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
AMDのGPUに関する話題のスレです。
関連スレ
CPUに関してはこっちで。
AMDの次世代APU/CPU/SoCについて語ろう 282世代
http://egg.2ch.net/test/read.cgi/jisaku/1503895438/
叩きたい方はこっちでやってね。
【AMD】 Radeon RX VEGA 葬式会場 【ポンコツ】
http://egg.2ch.net/test/read.cgi/jisaku/1502746039/ >>502
tegraって物の出来以上に採用されてたからいいんじゃね
そいつが開発する訳じゃないし >>502
前者はR300からGCN1まで作って、タッチパネル系HID屋さんのVP
後者はTegraGMとMicronでモバイル部門総括
コレでアーキ総元締とメモリ屋全てと客引きの用意が揃った事になる
後はプロセスとRajaの残したNavi次第 Naviの次でメジャーアップデートかね
VEGAはGCNの建増しだったから期待している >>502
David Wangって64コースの人か >>509
1070>1080>970>980>980ti
性能に比例してない謎テストで、追いついても無駄じゃね?
GTX1070はGTX1080に、何故勝てるの? >>511
突出してるのがBlack Texture系だけの時点でお察しだろ?
randomは性能通りの比率
白黒の処理が得意って、具体的にどんな役に立つの? VEGAはGPUコアのクロックを変えても遅いのを見る限り
HBM1 4096Bit 1GbpsからHBM2 2048Bit 1.89Gbpsに変更した際に
何処かボトルネックになるような設計ミスをしたとしか思えない
内部のHBCCがメモリ側のクロックで同期して動いてるとかね 内部インターコネクトがメモリロック同期なのはRyzenにも見られる事例だし同じような仕組みなら当然ボトルネックになるよねと >>512
実帯域はVega 484GB/s対GTX1080 320GB/sなんだから
x8 Random Textureしか明らかに勝ててないのは不味いよね
あとFury Xと比べて明らかに落ちてるのもね Fury Xは512GB/sだから大きな差ではないよ
本来ならばアーキテクチャの改良で覆せる程度の差
L2キャッシュだって倍増してるしね
VegaとRX580はx1 Black TextureだけFury Xと比べて改良の跡が見られるが
Geforceみたいにx8 Black Textureまで早くならないから
Radeonは圧縮が良く効く条件が更に限られているのがわかる >>516
GTX1080のBlackは、584GB/sと572GB/sが出てるんだが
実帯域を越える処理って何ぞや?
Blackの処理がVEGAは408GB/sで実帯域いっぱいに使い切れてるんですが
Furyも501GB/sで帯域ギリギリまで出てる
何故か帯域を越えるGeForceという欠陥商品について一言ください それをいったら
RX580もx1 Black textureで285GB/sと
256GB/sの実帯域以上の効果が出てるわけだが
Vegaはx1 Black textureで408GB/sと
実帯域の484GB/s以下の結果だし
メモリバスの前段でボトルネックになっていて
出し切れてないだけだと思う 圧縮すりゃ良いだけだからな
つってもオールブラックなんて条件は考慮の必要無いと思うけどな
そんなテクスチャ存在していいわけが無いし
特に陰影処理サボってテクスチャに載せる事も少なくない事を鑑みると、あまり頼りたくは無いな
ワーストが悪化する >>520
ブロックサイズがHBMとGDDRで違う
粒度が小さい方が小さいデータでも効く
それだけ
x1テクスチャってののサイズがわかれば意味がある考察、わからんならその差分に意味は無い >>520
GeForceの2:1圧縮や4:1デルタカラー圧縮と8:1デルタカラー圧縮みたいに、データを圧縮してるだけ
圧縮の効率はドライバーの成熟に比例する
だから、白黒で帯域を測るのがバカだって揶揄してたんだよ
有りもしないボトルネックの幻想を追いかけてお疲れさまです >>524
2015/06 R9 Fury Xデビュー
2016/05 GTX1080デビュー
一年遅れのGTX1080は、Fury Xがライバルなんですね?
白黒をそこまで使うなら、GFを使えばいいと思いますよ? 1080の対抗はVegaでしょ?
あとGeforceが異様に伸びるBlackTextureではなく
x8 Random Textureでも36GB/sしか差がないけど
484GB/sと320GB/sの本来の164GB/sの差はどこにいったのやら
256GB/sのRX580と比べても伸び悩んでるし
GDDR系とHBM系アクセス粒度だけでは説明できない差だし >>519
> 何故か帯域を越えるGeForceという欠陥商品について一言ください
圧縮してるからさ! 坊やwww レンダーバックエンドの性能を考慮するとRadeonはこんなもんでしょ >>526
なら、>>524をあげた意味不明なんですがwww
Vega不在の結果がそんなに重要?
GTX1080Tiなんて2017/03でFuryXに対抗されちゃってるけどwww >>526
全く別のアーキテクチャに於ける類似実装という事で、フローは同一では無い
直接比較は出来ない、粒度差はほぼ同一の条件下においてのみ素直に適用できる
この場合はP10/20だな
次いでFEである事、この計測がDX11である事と中身がまるでわからない事
そしてエンジンクロックに対し変化がない事を鑑みるに、意図的に帯域に制限をかけて“必要のないテクスチャ伝送”が全体に影響しないよう制限されているんだろう
恐らくはRadeon系は全てそうだ、GCN以降はコンピュート利用でもグラフィクス分の帯域を確保するためか
俺のTahitiでも必ずGDDR一個分は帯域が欠ける、割り込みより分離の方が影響は抑えられるしな
コレを拡張してある可能性は十分あるだろう
最近のGPUは引き算に躍起だ
原理的には表示されないデータはロードされないのが最も効率が良いからな、限定的だが互換を保つならそう言うロードバランサもアリだと思うが? 確かにRadeonの方がロードバランシングは優れてると思う
最近比べたGTX750TiとRX560だととにかく750Tiは余裕があればターボで張り付いてFpsをあげようとするけどRX560は適度にクロックを落としてくる
だから最低FPSが低めに出る
マイニングとかGPGPUタスクでもRX560は余力を持たせるのか軽いゲームを動かして問題ないけど
750Tiはカクカクするしな RX56と同様にVega64も同様に余裕を持たせる設計だった
GeforceのハイエンドはGTX780なら持ってるけど
750Tiと同じく余力がないとカクカクするんだよね
良くも悪くも猛突突進型というか
contextSwitch積んだPascal以降は治っているだろうか? ゲフォはCPU依存だけどラデはGPUのみでしょ?
よく考えたら今までのモデルもCPU単体で見たらラデの方が性能高かったんじゃないか? pascalはシングルコアcpuの最終局面の疑似マルチタスクをgpuで実装した形だな
voltaはいい加減反省してやっと分割して割り振れるようになったけどcpuでスケジューリングしてるのかgpu側でやってるのかは知らん >>533
GPGPUとしての性能とGPUとしての性能は違いますw GPGPUだとカラー圧縮関係ないもの
HBM2の優位性は覆せない VEGAもマイニングしながらエロゲ余裕
mkxminerでMona掘りながらランスクエストやってるわ |;:;:_;:;:_;:;:_:;:_:;:_:;:_;:;_:;l:;_;:;:_;:;:_;:_:;:_:;:_:;:_;:_;|
|________|_______|
i、`''i ;;;;:::ijj}、`';;;;;;'"":::;;;'" ,,,, 廴r''ツ r'
't、 ;;;、 t;; ::;;;`;;;;;;;;;;|}:::'"::;;'"ii" 、迄 彡ノツ
ヽ, ;) (|;;ヽ;;、;;;;;;;;;ノ':::i:::;'":::';;" ::'≡ " ノ 我 が P C に
'i ,;i,,、;;、、,;; ;;;;、;;;i'i},,ir')ノ,,,,,,,,___ :::ミ≡:r'i
t ;t;;iitーミゥテ;;、刈シ='r'-ミュォヲヲ ')'''/'|:| 一 片 の I N T E L な し ! !
'',、,i'"` ̄"::::了 j''"` ̄:::::" ;;リ/)リ/i ,,
. t、i':::: :::::::| ,' j"" :::リ'、/イ'(,, 、、 -ー '",、 ~ヽ
ヽt::::::: :::::t,,ハ ,、) ;;;;:::i-ー'"t))::::: ..;、-'",, " ヽ
i;t :::::::::::~'- '":" 了 ,i;;;;::: t:::;、-'" '" /
,,, 、 - ーt;ヽ ::::::::;;、、、:::,,, ;;'" /;;;;::: ,、'":::::彡
,,、- ''":::::::::::::::::::t:;ヽ :::::":::::::::::::`' / , ';;;;;;;r''":::::::...
,,、-'"::::::::::::::::::::::::::::::::::t::;;ヽ ;;;::::::::: "/;;;;/::::::::::
,,、- '"::::::::::::::::::::::::::::::::::::::::::::::t:::;;;ヽ :::::::::::: 、';;;;;r'"::::::::
. /:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::t:::;;;;;;'、;;;;;;;;;,、-';、-'"::::: >>538
じゃあSSDはMLCまでしか使えんなw まぁ何れにせよ問題は次期
小から大を推測するのは不可能に近いな
逆のアプローチを試みるべきだ
この場合、AMDが取れる選択肢は多くない
特にプロセスルールの進行が流動的である以上は、この状況において最低でも3ケースが考慮出来る
が、その規模と特性から全てに於いて通用するプランが必要
最良の一つは現行の拡大で採算に乗る場合、コレがプランBにはなるけど先ず有り得ないと見ていい
全てを満たせるプランAは、汎用性を重点に且つ効率に的を絞る方法のみ
直ぐに幾つか思い浮かぶが、ちょっと特定はし辛い
vegaの延長線であるなら、まぁsp-CU構造に手が入るのは確実だろうけど
発行粒度は細かくなるだろうと思う、少なくとも内部的には
ただこの線で行くと、コンピュートは良いけどグラフィックが厄介だ
ちょっと面積食い過ぎるかも >>537
Pascal1080だとマイニング中はデスクトップ描画すらもたつくよ
ccminerとsgminerどちらで試しても同じ感じ
ゲームを動かすとfpsはある程度出るんだけど
実際の描画が追いついてないのか60fps以上出ても実際は30fps以下に感じる
100fps出てても相変わらずカクカクするし
コレはRadeonの優位性のひとつだろうね >>541
ここら辺の強さがあるからradeonの需要は無くならないんだろうな
やはり供給量の問題が強い 正確には自動プリミティブシェーダ適応ドライバの中止
まぁうん、知 っ て た。 嗚呼、早すぎたHD2000のテッセレーターの二の舞か
後のAPIでは完全対応してないから梯子を外されたという プリミティブシェーダーはDX12の更に先を想定している機能だからな
DX11だらけの現状じゃどうにもならないから保留状態なんだろう
最適化前提のゲーム機なら使われそうだ プリミティブシェーダーお釈迦にしちゃってSM6世代の策定はどうすんだろうな…
DX12も所詮はSM5.X世代のものだし FermiのDX12みたくVegaのDX13対応も限定的だろうからね >>550
アレ自体はポシャってないよ
「自動でアレ使って効率上げてくれるドライバ」がポシャっただけ
アレが立ち消えるとGPU能力の向上は今後かなり限定的になっちまう ああいうのはゲーム機とかモバイルみたいな制限環境で頑張る方面で使われて
PCは重いならVolta買えよ!という相変わらずの状況になりそ >>553
そうはい神崎
プロセスのスケールが縮小しなくなって来た+GPUは配線地獄
この二つとなんやかやが合わさりこれ以上詰め込むのはコスト的にも技術的にもヤバい
だから効率を上げなきゃならん、出来なければ現存のグラボとしてのdGPU市場が消える
それはそれでAPUみたいになるんだろうけど、こっちも効率が悪いしコストも掛けられない
幸い現存のグラフィックはとっても無駄が多いから削り放題(←唯一の救い)
なのでこういう方面で頑張るしか無いの 方向は正しくても早すぎて一度消えていよいよ尻に火がついた段階で復活ってパターンの技術なんていくらでもあるわ。 結局誰が実装コスト払うんだって話になっちゃうからな
当然どこも負担しなくないのでどっかが貧乏くじ引くまで待つ
で誰もやらず、限界ギリギリになって慌てて野合 APUにTeslaやCentriqやCellをアクセラレータで乗せるとかになりそう
もしくは、ディスプレイ自体に外部GPUを載せて最終処理を任せる形
大型化するディスプレイの裏なら、サイズ拡大も放熱も電源確保も完璧
AMDのGPUの基礎設計や、VulkanAPIやDX12の負荷分散の普及を考えると不可能では無さそうなのがね
SSDに関数ライブラリを入れてディスプレイの裏でそのまま使って貰えば、通信量の節約も出来そう GeforceFXのFP16/32なShaderもVegaで復活したしな
PhaheliaのDX9のテッセレーションもそうだ プリミティブシェーダーをどうするかはクロノス、ソニー、MS、ベゼスダとかと協議中でしょ 協議した結果ジオメトリのプログラマブル化のほかに
ピクセルパイプライン側の機能強化も要望されて
ParheliaみたくHW対応したが
使われない高機能なジオメトリパイプライン
なんてオチもあり得るぞ 実用化はPS5と箱の次世代でしょ
PCはDX12の普及次第 パイプラインの改革はメジャーアップデートのDX13だろうし
XboxOneとDX12が同発じゃなかったのを見る限り
2019年内に出る可能性は低い
そもそもコンシューマーと言ってもPCマルチだからNVIDIAがprimitiveShader搭載しない限り盲腸になりそうだけどな
SwitchまでマルチするならDX12 FL12_1相当でしか使えないし あとワットパフォーマンスの高さで
任天堂みたいにNVIDIAGPU採用に流れたら
次の世代もprimitive Shaderが使われない可能性も高まる
MSがエミュレーションでARMとNVIDIAGPUで旧来のソフト互換を考えているかもしれないしな
ワットパフォーマンスが高ければ
冷却ファンやヒートシンク
VRM回路一つにとってもコストダウンにつながるわけだし nvidiaのGPUはライセンス面で改良とかシュリンクの融通が利かなくてsonyは懲りただろ 構造的にnvidiaはずっとDX11を引きずるしかないから今後は期待できんよ
kaby-Gの方向性は今後需要がかなり高くなりそうだし、いずれAPU+HBMも出来るだろうし、nvidiaの居場所は今後かなり削られていくだろうね
この辺は7nm世代で色々加速すると思う
プリミティブシェーダーは使いこなせば性能2倍も可能らしいから、ゲーム機やラデ最適化ゲームでは使われていくだろうな 仮想通貨をきっかけにGPUでの汎用的なブロックチェーンや暗号処理が普及してくれるといいな
マイニングじゃなくセキュリティ強化としてGPUが使われるとAPUの存在価値も高まるんだけど 米国AMD社GPUベースの深層学習クラウド事業を開始
https://www.atpress.ne.jp/news/148689
geforceがデータセンター利用禁止になったのでかわりにradeonでやるってよ >>564
ワッパの高さと言っても、ROPを盛ればゲーム性能でワッパが良くなるってのはKaby-Gで証明されたようなモノだし
nVidiaを検討する素振りを見せるなら、AMDも素直にROP盛ると思うけど。
特にゲーム機であるなら、汎用性を犠牲にしても問題は少ないし。 ROP特盛は384BitバスのXboxOneXで既に出してますが
まあこれでも競合のGTX1060クラスのROPだから辛いよね Xは32ROPで37.5GP/s
ソースはMS(HotChips)
1060(72.2GP/s)の約半分
特盛どころか大幅に削ってる >>568
ハードウェアの変更ではなく規約を変えただけだからAMDが増産しようとした所へ
規約を元に戻して打撃を与えるんじゃないかと勘ぐってる さすがにコロコロ変えたらnvの信用が崩壊するからやらねーだろ
GPUならまだしも他のジャンルまで手だしてんだから信用崩壊リスクはヤバいぞ そもそもマイニングでゲーム市場が苦しむから暫くはこのままだと思う nvidiaが本当にゲーマーのためを考えているのなら
GPGPUではなくマイニングを規約で禁止すべきだった マイニングだけ例外でOKにするんだから腐ってると思わないか? AMDも積極的にマイナーに売り込んでる以上余所の事どうこう言えんさ >>572
陰謀論過ぎて笑える
メモリが足りなくて増産できてないってAMDが言ってるから、NVがそんなこと考えてたらアホすぎるわ ヌビディアが4月に飛び級の新型出すらしいじゃない。
完全に周回遅れになってしまうのね。 発表するだけでリリースじゃねえんだよなぁ
7nmであれば飛び級だけど年内発売は怪しいし
10nmであれば小規模パフォーマンスアップでしかない >>581
一時的にな
既に更に先の7nmの準備中だから気にするまでもない
俺らはNaviの妄想で楽しんでればいい 10nmは60-65%くらいの電力になるって言うから
同電力までコアを増やせば性能はPascalの1.5-1.7倍
もし10nmでもしばらく動けそうにないAMDにとっては
小規模アップどころか完全にオーバーキルですね GV100でGP100の1.3倍のダイサイズで同電力で1.5倍の性能なんだから
GP104の後継を12nmで作ってもVega10より小さいGM104並みのサイズに収まる。 7nmのNaviは順調なら年末年始くらいに出そうだから、割とすぐにアンペアをオーバーキルし返すだろうな 7nmがコスト的にコンシューマ向けに出せるのかどうか疑問 >>587
GFのプランなら緩いし割と現実的かと
TSMCやintelは数字は良いがそういう意味ではネックだな
GloFoの7nm仕様って緩いけど最終的な性能は同じくらいになりそうだなと思ってる
最下層の素子を如何に小さく作れても、上に載る配線はそれに追随出来るわけでは無いからね
現在のところCPUに於ける十何層程度の内、細粒度の配線は下何層か
GPUに於いては殆ど全てがこの細い配線になる
コストを鑑みれば“CPU的な手法で細いダブル以上の配線層を減らす”事が要求されて来るだろう
となるとTr自体の駆動能力を上げ、並列規模を抑えてクロックを上げる傾向が有効
密度よりも密度あたりの性能がマストになるわけだ
コレをどういう風に設計するかは、わからんけれども アレは別に小さいとかそういう次元じゃなくて張り合う意気込みのアピールだよね
TSMCがSRAMセルサイズ0.027平方μmで出してたから翌年のGFは0.0269平方μmで試作した
1年後に0.0001の差っていうのはもう作るために作られた数字で
加えてTSMCとSamsungは有効2桁で16/14/10/7nmの発表をしてるのでちょっと意味が マイニングもグラボ使わなくなったしそろそろ値段下がってこないかな グラボ使うかどうかはどの通貨を採掘するかによる
ビットコインはGPUで掘ってももはや1銭くらいにしかならずに儲けるのは不可 メモリアクセス速度をそこまで要求しないなら
GDDR3とか持ってくるかもしれんな >>597
どうだろう。
マイニング用途ってことで、重メモリ仕様かもしれない。
例えば、1030にマイニング用途の固定機能つけて、メモリをGDDR5を256bit・8GB積んでTDP50Wで250ドル、とか。
ゲームは1030並だけど、マイニングは1070並で50W、なら確かにマイニングでは他のGPUを過去の産物へと追いやれそうだが。 マイニングにメモリ速度なんてそこまで要求されるかね
テクスチャと違って単なるハッシュだし
L2を増やす方が大事なんじゃないの マイニングは、どの暗号通貨を掘るかによってかなり変わってくる
最近は、わざとASICで掘れないような対策したアルゴリズムを使ってる通貨もそこそこあるので、
ASIC対策にそれなりのメモリ容量を必要としたりする GDDR5を256bit・8GB積んでTDP50Wは無理でしょ
メモリの電力はそんな軽くない
それに1030に256bit引き出せるエリアもないだろう いっそ外部DRAMレスだ
HBCCでメインメモリをVRAMとして使って処理は内蔵のSRAMで基本完結させるGPUを出せ
安くなるし電力も食わないし供給制約も無くなるぞ
GDDRとHBMをマイナーから開放すればみんな丸くおさまる AMDはその辺踏まえてRyzenで掘ろうって言ってるな。 ■ このスレッドは過去ログ倉庫に格納されています