【ハードウェア】NVIDIA、データセンター向けGPU市場でシェア98% AI性能が明暗分ける [すらいむ★]
NVIDIAがデータセンター向けGPU市場で98%のシェアを独占していることが判明、AI性能が明暗を分ける結果に
膨大な処理能力を要するAIの普及により、大企業がこぞって演算力の高いGPUの確保に奔走しており、特にAI処理のパフォーマンスに強みを持つNVIDIAの製品は世界的に品薄となっています。
AI分野での優位性が追い風となり、2023年のデータセンター向けGPU市場におけるNVIDIAのシェアが98%に達したとの調査結果が公開されました。
Analysts Estimate Nvidia Owns 98% of the Data Center GPU Market | Extremetech
https://www.extremetech.com/computing/analysts-estimate-nvidia-owns-98-of-the-data-center-gpu-market
(以下略、続きはソースでご確認ください)
Gigazine 2024年02月05日 14時00分
https://gigazine.net/news/20240205-nvidia-gpu-market/ 性能以前に初期からnVidia対応が圧倒的に先行してた印象 AI性能とかわけわからない説明じゃなくて
CUDAというソフトウェアを提供したことでGPUがその名の通りのグラフィック処理だけじゃなく一般的な計算の並列化を可能にした
この並列化計算を多用するAI処理に貢献した
CUDA相当の技術は他社は提供できていない
んではないの? >>4
単なるGPUパフォーマンスはAMDの方が上らしい 例は悪いかもしれないが富岳で実装したようなAI特化の浮動小数点や整数配列演算ユニットとAPI群を用意すればNVIDAに固執する必要ないのでは?
特許云々は別として他の開発企業なら容易に参入できると思うんだが、寡占状態でデファクトスタンダードの強みなんだろうか intelのArcシリーズでもAIを動かせない訳ではない、というのだが
やっぱり設定が特殊になる
https://github.com/intel/intel-extension-for-pytorch
こんなものをインストールする
そしてIntelのArcシリーズはA770がコア数は5000未満なもののVRAMが16GBと多くて期待されたが
次世代のBattlemageは開発が進められているものの、やはり難航中 アメリカから半導体輸出を絞られてしまった中国では
何が何でも国産AI開発を続けるために
MTTシリーズのGPUを作り
MTT S4000では48GBのVRAMを誇る!
が、計算コア数は不明
中国ではRTX3060くらいのハードスペックのMTT S80を作ったが
ゲーミング性能に限ればGTX1650にも及ばないと酷評された
AIに関しては「この計算コアはcudaと完全互換だ!」と言っている
githubの方で大騒ぎしながら動いたぞ!とか情報交換が進んでいる
tensorflowでもpytorchでも一応は動いている
漢字だらけの中国語での言語・文章モデルとか大変だな >>1
これ、科学ニュースじゃなくてビジネスニュースだろ
こっちに立てんな! 困った事にビジネスニュースの住人はChatGPTやBingChatは使った事はあっても
tensorflowやpytorchの使用経験があるのは殆どいないので
その辺を加味するとこっちの方が良い、のかも知れん
だがAIの計算も含めた科学計算そのものが企業にパッケージングされてるようなもんじゃないか!
との批判は物凄く多い
かつての最適化手法や流体計算などをGPUで行ったり
最急降下法をtorch.tensor.backward()メソッドで実装してみた(キリッ
みたいな投稿も増えている
今年はkaggleとgithubには投稿しまくってて
古典的な科学誌には1つも投稿してないけど業績として評価してくれ!
と訴える研究者もいるそうな
これも科学とは言えない利権まみれwの分野だが
温室効果ガス排出量の評価なんてするなら
https://www.kaggle.com/code/lostinworlds/eda-visualisation-co2-emissions
kaggleで調べるのが一番いいのかね >>5
違う、AMDにもCUDAに相当するOCPというライブラリが提供されてる。
一方AMDにはNvidia V100とかA100に相当するAI用GPUのラインが欠如してる PCでAI系やりたい人は、NVIDIA一択状態だからな
Radeonじゃ、動かないソフトが大量にある AI処理?
なんだこの文系馬鹿が作文したような記事は・・・ >>5
>>13
CUDAのオープン規格はクロノス・グループが策定したOpenCL
NVIDIAが2011年にGeForce GTX480を出した時から存在する
所詮、CUDAもAppleのMetalも一過性のもんだ
NVIDIAはCUDAもOpenCLもDirectComputeも切り捨てて
OpenACCに全振りしたが
一方、AMDやIntelはOpenMP 5で行く
2022年6月に世界記録を塗り替えたスパコンOLCF-5は
AMDのMI250X GPUを使っている >>19
一昔前なら、それ言えたけど、
今、ネタじゃなく本気で言ってたら、よっぽどの情弱
時価総額世界6位の会社
GAFAのフェイスブック(メタ・プラットフォームズ)より大きな企業なんやで
トヨタ自動車とかよりはるかにでかい企業 GPUが下火になりそうで
CUDAとかでHPC向けでもがいてたら
暗号資産ブームが来て
AIブームが来て
生成AIブームが来て
遥か上空に飛んでいっちゃった
ってイメージ AMDが頑張ってもダメでAmazonやGoogleが
自分で作り出すまで独走止めるの無理かなぁ GPUでAIというのが邪道と思えてならない。こんな状況が続くのは,やはり今のAIが単なる技術開発の域を出ていないからとちゃうんか? CUDAで書かれたAIアプリはnvidia製でしか動かない訳だから(CUDAはnvidia社製品)、そーなる
>>23
GPUが、昔言われていた数1000の演算処理を同時にこなせる超並列マシン(SIMDだけど)の具体化で
AI処理と言うか、行列(テンソルだけど)処理に向いてるってだけの話だぞ
しかも、元々ゲーム向けだったから
科学技術演算向けスパコンみたいに高精度演算だけに拘って作られたモノでは無いので
精度めっちゃ悪いけどウルトラ超高速!って演算も可能なので
科学技術演算専用に作られたスパコンを寄せ付けないのだ… まぁあれよ…
DirextX10とかCUDAが出てきた当時は
汎用的な演算できんの?
単精度とか16bit?それってw
画像処理ぐらいにしか使えなくな~い?
って言われてた訳だからな
その後、倍精度も使える様になったけど遅くね?
処理限られるんじゃね?的状態から
>>21であっと言う間に変わっちゃったモンな… >>19-20
日経新聞が「NVIDIAという馴染みのない企業」という記事を数年前に書いたら
それでも経済新聞か!日本の財界のIT情報はこんなもんなのか!これが失われた30年の象徴かと
めちゃくちゃ叩かれたなあ
それ以来NVIDIA社の名前が出ると「知らない企業だ」とレスが付いて
それに対して「日経乙」とレスが付くじゃれ合いがなされている
やっぱりAI関連はビジネス+より科学+の方が良いんだろうな 若くしてアメリカに渡り帰化し有名工科大で
学び、有名な半導体設計企業で研鑽を積み
やがて起業した天才台湾人。
日本人にあまり居ないよなあ。
孫正義がそれだが、ソフト方面に行き
大成することなく投資バクチに走った。
堅実さに欠けた。 >>27
日本人の天才台湾人は、そりゃあいないって >>1
うーむ、データセンター向けGPU、快適そうやな
俺のPC、1000 epoch の学習に2時間だもんな GPU使わずcore ultraでどんぐらいやれるんや 昔はンヴィデア派とラデオン派がいたな
当時はンヴィデアがここまで成長するとは思わなかった >>23
視神経から脳が創発してきたとでも思っときゃええ >>27
>孫正義がそれだが
全く違う
ジェンスンファンはスタンフォード大で電気工学を専攻して
20代の時はAMDでマイクロプロセッサの設計してた理系エンジニア
ソフバンの孫正義なんてAIは30年後にはIQ1万になるって
IQの算出方法すらロクにしらない統合失調症みたいなホラ吹いてる山師
news.mynavi.jp/article/20151023-sonmasayoshi/
新型コロナのパンデミックで在宅勤務が増えて
GAFAMがIT特需で業績拡大しているのに
孫正義だけはオフィス賃貸のウィーワークに投資して
評価額5兆円から急落して8000億まで落ちて大損こいて
頭がおかしくなったのか
犬の散歩の代行業に300億円も投資して失敗していた
大金を借りたサウジ王子に年利7%支払うドツボにはまって
キャッシュ足りなくて虎の子のアリババ株も売ってしまって青息吐息
犬の散歩代行業に300億円 孫正義「失敗お買い物リスト」
https://bunshun.jp/denshiban/articles/b1116 >>25
おまえITオンチのバカだろ
DirextX10は3DCGライブラリで
CUDAはGPGPUだから
全く用途が違う nVIDIAがどーのとか興味ないねん
グラボの値段高いの
なんとかせーや >>24
おまえ無知で物凄い間違いしてるけど
AIのディープラーニングには倍精度は不要だし単精度か半精度で行ける
NVIDIAは最初にGeForce Titanを出した時は倍精度演算に特化したが
すぐにAIの需要に気がついて倍精度捨てて単精度を強化した nvidiaのH100x8スパコンはメモリバス幅8192ビットで5200万円。
ちなみに富岳はSVE512ビット。
高精度演算はたぶんどんなPCでもPythonで10^17桁まで検算、10^1000桁まで演算可能。 GPUがこんなに稼ぎになるとは。
日本も早くPowerVRの後継を開発しよう! AI用GPUは、搭載グラフィックメモリの容量で性能が変わる。
H100の場合は80GB。
次のB100では141GBではないかと言われている。 GPU利用の生成AIの学習能力は、グラフィックメモリの容量が最大容量。
つまり現行では80GB、次世代機では141GBということになる。
何兆トークンとか持つことになると、ここがネックになってくる。
これは処理速度は大きく劣るが、CPU利用タイプの生成AIの方が学習容量は大きく持てるということになる。
学習内容はJSONで持ったりするようであり、テキストデータベースでの容量ということになるだろう。 また乱暴な言葉で空気悪くしてる人来てるし、GPU知識の人 どこのマイクロソフトだよ
まぁこの手のものは仕様同じ方が導入も運用も楽だもんな
でもセキュリティー的にどうなん?
勝手知ってる人多いから悪さできる人も少なくないんじゃね? 中国との関係によってはアメリカから閉め出されるかな Nvidia株12月に500ドルで売って
AMD株買ったワイ、負け組 😅 まさかGeFORCEがこんなに化けるとは
10年前にNvidia株買った奴凄いわ
革ジャンには何か煌めくものはあったけどな >>44
どこが乱暴なのよ
ITやってるアメリカさんたちは
こんなレベルじゃないから
そんな周辺のこと気にしてるから
IT進まない日本なんじゃないの?
やるべきことやる
いうべきこと言う
フリルなし >>49
いまはクラウドデータセンター向けの話が株価上げてるわけだからその辺りの話じゃない >>13
AI技術者だけどもはやCUDA以外使う気になれない
俺みたいな人は多いはず
それはNVIDIAの強みだと思う >>54
うわあああああああああ
ボード内にCPU要素も入れてそっちに480GB
従来のボードはH200と同じで144GB
それを連動して576GBから624GBのVRAM的なメモリ達成!
NVLink-C2Cが900GB/sでデータをやり取りできるお陰か! これではますます独占が進んでしまう。憂慮すべきことだ。 PCのメモリもTBクラスで組む必要があるなw
でもストレージ要らないって事にはならないだろう
NVLinkって以前はグラボ2枚挿しに使う技術だったかなあ
その更に前はSLIというものに対応しているかどうかで
「画像出力に関しては」2つのグラボを1つであるかのように使う事が出来た
だがAI計算に対してはSLIやらNVLinkやらを使わなくても
2枚を挿すだけで性能が1.7倍に上がり、VRAMも一応は両方を足したくらいにはなってるって
情報は見たことがある
沖電気は3年前に「GPUのVRAMとマザボに挿したメモリをシームレスに使えるような手法を編み出せた」
と発表した事はあった
まあ、スピード遅かっただろうw
NVLink-C2Cで繋ぐ、か
恐ろしい技術だな 98%という数字は独禁法適用水準にあるとは思いませんか? でもCUDAでなくROCmとか使いたくないし
ROCmはLINUXでしか動かないって話だし
実は中国国産のGPUというものも存在している
これもRTX3060相当のハードウェアの筈なのにGTX1650にすら
ゲーミング目的だと負けるというポンコツだが
VRAMは大きいのでAI目的なら(現時点のNVIDIAのグラボの構造なら)少しだけ有利になる >>58
他メーカーでもcudaを使える方法があれば便利さが増すかな
予算不足の企業でAMDグラボとrocmで動くように既存のAIプログラム改造したって話もある かつてみんながIBM360システムに飛びついたために、ロックインされてしまって長らく計算機の
性能進歩が年率平均7%程度に計画的に停滞させられていたという歴史の教訓を思い出すべき。 結果論でいえば、IntelはItaniumで時間と資源を大いに無駄にした。
そうしてNvidiaのGPUに対抗してXeonPhiを出したが、結局それも時間と資源の無駄だった。
もちろんチャレンジをしなければ失敗はしないのだが。 64ビットアドレスでは足らなくなるのはいつ頃かな?
はたしてその次はアドレスが128ビットになるんだろうか?