【前スレ】
CPUアーキテクチャについて語れ 34 [無断転載禁止]©2ch.net
VIPQ2_EXTDAT: checked:verbose:1000:512:----: EXT was configured
学習段階ではGPUが有利ってだけ
それにGoogleはAI使ってお金を生み出すビジネスできるけど
nvidia自体のビジネスにはそういうのがないから
ASICを自分で作る必要性がないだけ
つうか学習スピードでV100は2倍以上の差が離されてるし
有利でもなんでもないんだが……
クラウドサービスはTensorFlow以外にも対応してるんだな
DGX1 12台であの馬鹿でかい64TPU超えちゃうけど
1/4以下の体積で
肝心のTDPには全く触れられてないあたりが
やばそうなにおいがする
あのボードなら8個のチップ積める
あとDL全般に関して、他の8基比較のベンチでは概ねV100はP100の2.x倍ばかりなので
8基同士の比較でも結果は見えてると思うが
まあこの辺はGoogle待ちでもあるけれど
あとボードで判断するならFermiが一番良いアーキテクチャになるんだが
イミフ理論が続く
体積は重要です
初代TPUはINT8だったがTPUはfp16になった
Googleつうか大手クラウドベンダーは消費電力当たりの性能をかなり重視してるから
少なくとも初代程度の圧倒的な電力比パフォーマンスを、学習でも達成できなきゃ態々やらんとみてるが
勿論Googleがそういうことをしないという可能性もゼロではないけれど、かなり低い
まあ搭載できる個数がどうしても気になるなら
DPUでも採用しとけばいいんじゃね?
これ一応CPUでもあるから、ここ最近の流れで触れて欲しいものだったけども
3U筐体で2900TOPS
学習においてCNNでは現状GPUベースシステムの10倍、RNNなら古いK80とはいえ500倍の速さを達成してる
牧野さんといい松岡さんといい
結構面白い人らの名前しか出てこんの、このスレ
情報工学でスパコンていうと彼ら以外の人のイメージの方が強いんだけど
本業全然違う方向で(メタルラックの)カリスマだったしね
まあ載ってるのはGRAPEだったから全然違うわけでもないけど。
日系ティア1サプライヤーの関係者におかれては、自らが“崖っぷち”にいるという強い危機感を社内全体で共有していただきたい。
nvidia 金鉱掘る人に高性能ツルハシを売る
google 自分でツルハシ作って金鉱掘りに行く
つかグラボろくに使ったことがないし、買えない人が
こうやって機械翻訳君みたいにマウントとるのって、仕事のストレスからなんだろうか
毎朝4時前起きのお仕事てなんだろ
そんな田舎なんだろうか
職場の回線から書き込んでる臭いときもあるが、その辺は大丈夫なんかね
wave computingとかいう無名のとこが最強な件
これか
ttp://news.mynavi.jp/articles/2017/05/02/dpu/menu.html
リチウムイオン電池という超欠陥デバイスをいつまで使い続ける気か
半永久的に給電出来る放射性炭素電池はIoTの救世主になりそう