【IT】NVIDIA、データセンター向け新GPU「A100」発表 AI性能はV100の20倍 [ムヒタ★]
■ このスレッドは過去ログ倉庫に格納されています
米NVIDIAは5月14日(現地時間)、新たなGPUアーキテクチャ「Ampere」ベースのデータセンター向けGPU「NVIDIA A100 GPU」(以下、「A100」)を発表した。現行の「Tesla V100」の約20倍の性能を実現したとしている(FP32演算時、V100が15.7TFLOPSのところA100は312TFLOPS)。
https://image.itmedia.co.jp/news/articles/2005/15/yu_nvidia1.jpg
A100は、科学計算、クラウドグラフィックス、データ分析用に構築された、540億を超えるトランジスタを搭載する7nmプロセッサ。40GBのメモリを搭載し、メモリ帯域幅は1.6TB/s。相互接続技術「NVLink」が第3世代になり、複数のA100を1つのGPUとして動作させることが可能だ。
8つのA100をNVLinkで統合した5PFLOPSのAI性能システム「DGX A100」も発表した。NVIDIAは昨年3月にMellanoxを買収しており、DGX A100に9基の200Gb/sのネットワークインタフェースを搭載した。価格は19万9000ドル(約2100万円)。
A100はAWS、Cisco Systems、Dell Technologies、富士通、Google Cloud、Microsoft Azure、Oracleなどが自社製品に採用するという。
NVIDIAは3月にサンノゼでGPU関連のイベント「GTC 2020」を開催する予定だったが、新型コロナウイルス感染症(COVID-19)のパンデミックにより、中止した。今回の発表は、ジェンセン・ファンCEOが自宅のキッチンからの基調講演で行った。
基調講演は9つのパートに分けてYouTubeで公開されている。以下はその中のA100関連のパートだ。
2020年05月15日 09時42分
https://www.itmedia.co.jp/news/articles/2005/15/news061.html >ジェンセン・ファン
ファン (Hwang) だから漢字で書けば黄さんだな。 よく分かんないけど、データセンターで必要なのはCPUじゃないの?なぜGPU もうGPUっていう呼び方が違和感しかないな
ディスプレイ用のポートついてない板とかもあるし >>1
完全に日本は置いてかれてるな
台湾人のほうが優秀な企業家多い
どこで差がついた? 昔日本が600億かけて作ったスパコン「地球シミュレータ」は
「NVIDIA A100 GPU」2枚分の性能 まさかAIの時代になって微積分と行列の知識が役に立つとは思わなかったよなあ。 >>11
今となってはその2枚で実現できる性能のせいで,NECはアメリカに潰された。 >>6
わかんないお前が、なんでこんな専門的なデバイスの話に加わろうと思ったんだ?
書いてある内容から分かるように、このデバイスは科学技術計算、特に深層学習用で、つまり整数演算はほとんど必要としない。
以前発売されたTesla の後継で、そもそもこれを買うのはTeslaを買っていた企業だ。
間抜け。 >>15
いや、単に日本の企業がどこも買わなかったからHPCやめただけで、そんなにNEC守りたかったら、なんでお前格安スパコン三千万円買ってやらなかったんだ? >>8
Teslaとかは深層学習と時々マイニングだからね。
もうFPUとかないんだから、外付けFPUとかの呼び方が良いのかもしれない。
あるいは、TPUはGoogleが抑えてるだろうから、モトローラやibmがmpuと言う名のcpuを出すことはないのだから、行列演算に特化しているということでmpuも良いかも知れない。 価格は2100万円
価格は2100万円
GPUボリすぎなんで、CPUメーカーとマザーボードメーカーで
GPU類似のいくらでもつなげて乗せられる浮動小数点チップを開発してほしい
CUDAに対応とかしなくてもネイティブでCのコンパイルも出来てほしい >>18
Massive Processing UnitとかでMPUいいかも知れんな いい加減スパコンに多額の税金使うのやめろよ
十分実績のある民生品の技術を使って採算のされないCPU作るくらいしか出来ないし、
どうせNVIDIAのマネしかできないだろうから 俺のiMacふるいからNVIDIAモデルで、放置されてんだが
アップデートももうないのかもな >>14
そこら辺はAIなくとも物理の必須知識じゃね?
機械を設計しようと思ったら、少なくとも初等力学は基礎中の基礎として避けられないし >>16
深層学習に整数演算はほとんど必要としないってバカかお前
>演算処理性能は、例えばFP32(単精度浮動小数点演算)による学習で312T(テラ)FLOPS、
>INT8(8ビット整数演算)による推論で1248TOPSに達する。
https://xtech.nikkei.com/atcl/nxt/news/18/07859/ >>8
General Processing UnitのGPUでえぇやん。 >>25
日本が今からスパコンやるなら、
先行していたのに抜かれて周回遅れになった量子コンピューター以外無いな >>29
深層「学習」にはINT8なんて使えんよ
推論に使えるだけ 日本のスパコンは公共事業なんだから税金じゃぶじゃぶ使わないと意味ない >>36
お前も本当にバカだな
今の演算器は実数も整数も同じものを使い分けてるだけだから片方だけの性能が
上がるなんて有り得ないし、そもそもどちらかが使えればそれで良いってものじゃない 80年代後半から、ジャブジャブ税金使ってなんら成果だしてないでしょ
AIなんかも、けっこう税金使ったでしょ。でも、なぁぁぁぁんにも残ってない
スパコンも、なぁぁぁぁんにも残ってない
なぁぁぁぁんの産業も育ってない。これが日本のIT公共事業 90年代、日本では「付加価値を追求する」て、ほざいていたけど、結果このざまなんだよね
公共事業が無いと食っていけないほどまでに衰退した上、何の目処も無いから学生さんに期待してんだよね ちなみに公共事業というのは、
中華製パソコンに自社のシールを張ったパソコンを自治体などに数倍の値段で売るとか(最近、小中学校にも収めています)
使えないシステムを売るとか(例、使えないシステム・マイナンバー。「10万円給付申請、郵送呼び掛け オンライン不備続出」) 実をいうと
データの種類にもよりますが
論文でもなんでも
誰でも閲覧できる時代だったりするわけだったのだって事言ったら
信じますか? >>39
INT8演算しかできないUSBアクセラレーターとか
前にしてもそう言ってればいいさ >>41
新しいNVIDIA DGXはインテルXeon切ってAMD EPYCに鞍替えだぞ >>14
AIは単なる知識の集積
数学的要素などないし意味ないよ
例えば人間の脳と対等の機能を持たないAI(もどき)に価値はありません >>44
データに種類は無い
データは分類できるの単なる値
値は真偽が存在する
正しい値で無ければデータとして採用できません >>42
>>43
一部の利権者が義務を怠り私欲を貪ったせいで、日本の未来は暗い
知らないとヤバい!自動運転で社会が激変します。
https://www.youtube.com/watch?v=40SlAHQlM18
21:00〜25:20 >>48
皮肉もわからなけりゃ
turing時代のtensorコアが全くFP32演算に
寄与しなかったことも知らない無知を
まず恥じたらどうかな >>55
昔話したいだけならチラシの裏にでも書いとけよ爺さん >>56
turingって昔なのか…
偉ぶりたいだけの知ったかは死ねばいいのに >>58
A100のAmpereで世代遅れになったのも知らないバカかお前
いつまでもそこで止まってろよ世界は進んでるんだよこの間抜け >>11
初代地球シミュレーターって40Tfくらいじゃなかったか? こういうのをクラウド経由で時間で借りて膨大な学習処理を
ますます手軽に個人で行えれる時代が来たね。 衛星を始め
世界中の色んな観測データもAWSなどで入手可能だし
個人でも凄いデータ解析が可能かな? コストがどれくらいか
分かんねえけど。 >>36
TPU v1はINT8の処理に最適化することでFloat32はサポートしてない。
つまり、ほとんどのアルゴリズムの処理はINT8だけで可能。 >>62
Goodfellowの本にも「8bitで大丈夫」と書いてあってびっくりしたわ
直感的には勾配がすぐ消えそうで怖いんだが 地球シミュはFP64だから…
FP64でどのくらいの速度なのか、はっきり書かないのがアレよ 地球シミュはFP64で40TFLOPS行くかどうかだから、2〜3枚で超えるか
> なおFP64に関しては19.5TFLOPSで、Volta V100の7.8TFLOPSに比較して2.5倍になる。
NVIDIA、AmpereアーキテクチャのGPU「A100」を発表 従来比20倍のAI性能を実現 - クラウド Watch
https://cloud.watch.impress.co.jp/docs/news/1252515.html 公式プロモ
Introducing NVIDIA DGX A100 - YouTube
https://www.youtube.com/watch?v=TJcKYUTaBtg NVIDIAは、自動車などに搭載することを想定しているので電源、気温湿度、振動などが過酷な状況でも正常に動作するコンピュータを考慮している。
かたや、スパコンは億を遥かに越える立派な施設(税金)で、定電圧、一定温度、耐震構造(電気代も税金)を前提としている。
それでいてNVIDIAの後追いしかできない体たらく。 Intelも必死こいて単体GPU開発してる理由はこれだからな >>70
IntelのはGPUじゃねーよこのニワカ >>69
正直な所、後追いすらできてないのではないかと不安がよぎる
実績作りのために、有名所に頭下げて、使ってもらっているだけでは?と。
「うちのスパコンを使ってもらいたい」と頭を下げられた側も、後々の貸しにもなるし、少々手間でもデメリットは少ないと判断し、快諾するだろう。
なんせ、全て税金なのだから。 全て税金?おまえはバカか、助成金だろ!
費用の全額を助成金でもらえるはずがないだろ!少しは考えろ!
と言う奴がいるだろうが、30年を越える助成金生活。いろいろとノウハウが身につく。
監査に引っかからない、法に触れない循環取引などあらゆるノウハウが開発された。
でもコンピュータ技術は昔のまま、日本の発展など考えない。
エライ人は努力のベクトルが違う。 >>71
コンシューマー向けはdGPUで業務向けはGPGPU用 >>76
よこやりですまんが、オマエの主張が分からん。
Habanaと呼べと言いたいのか? >>77
バカかお前
Habanaは開発コード名だ >>78
わざわざURLまで見たんだが、オマエが言いたいことが全く分からん。
オマエの目には、周り全てがバカに見えるんじゃないのか? ID:pl+i3PRAはIT系スレに現れる罵倒おじさんか
久しぶりに見たような気がする よく知らんが、「AIプロセッサー」って用語は定着してるの?
あと「NPU(Neural network Processing Unit)」なんかもあるみたいね NVIDIAのTensorコアは行列演算に特化しているようだが、この行列演算に特化した物を
「AIプロセッサー」とか「NPU」とか言ってんのか?
名称だけが先行してよく分からん。
>>78 よ、教えてくれないか?
まあ、マウント取りたいだけのヤツだろうから、聞くだけ無駄か。 スパコン賞味期限短すぎ
こんなに短期間で性能向上するんだったら
投資も消極的になりそうだわ >>84
投資として成り立ってないから、助成金が出てる。(だからずっと前から採算がされていないし、将来、採算がとれる見込みもない)
そして今では、>>84が言うとおりスパコンを継続する意味すらない
>>25
>>69 勘や第六感といった説明できない感覚的なものを実装できたらAIだわ もう久しいが、商品名称や技術名称だけが先行して、肝心の技術に触れてることが少なくなったと思う。
筆者も、読者も、その方が楽だからそうするのだろうけど、そんな記事ばっかり見てIT通だと誤解したバカ(>>78)が日本のIT業界を背負って立つのかと思うと、背筋が寒くなる。
>>83 ID:YgNWzB1gは全く相手されて無いが一人相撲取るほどそんなに悔しかったのかなw 整数演算がGPUだろ
んで、行列演算したら、別の名前に?
神戸商船で大学院の研究所にいたとき助教授が待ち行列の専門家だったけど
それが人工知能システムとかいうの?
ただのコンピューターシステムの基礎の基礎攻めてるだけじゃないか これ「GPU」って言えるのか
グラフィック用途に使ってないじゃん >>91
GPUの仕組みはMIMD(Multiple Instruction stream, Multiple Data stream)。
当初、GPUは3Dポリゴンを演算する用途で開発されたが、気象シュミレーションなど多くの用途でGPUが使えることがわかり、グラフィックス以外の用途でも、(仕組みが同じなので)そのままGPUの名称が使われている。 >>72
蓮舫は正しかったんだよ
理研の方が馬鹿だっただけ >>89
行列と言うか、実態はテンソルな…
それはともかく、(神経)回路網をグラフとして表現すると
行列として計算出来るって事だ
そこらの話は電子回路シミュレータなんかと一緒だな >>66
そりゃ初代はもう20年前の代物だから
今時のスマホでさえ、当時のハイスペックサーバー以上の演算ができるだろ?
それと同じ
技術の進歩は素晴らしいね >>98
電子回路シミュレーションなんかと一緒って表現すると
神経回路網が、もうシミュレーションできてるように取れるのだが ■ このスレッドは過去ログ倉庫に格納されています