X



【計算機科学】なぜ日本はGPUのない「富岳」でLLMを研究するのか 外国に後れを取らないための“現実的な理由” [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
0001すらいむ ★
垢版 |
2023/09/12(火) 21:15:39.19ID:f/4Dv9I8
なぜ日本はGPUのない「富岳」でLLMを研究するのか 外国に後れを取らないための“現実的な理由”

 米OpenAIの大規模言語モデル(LLM)・GPT-4は今、世界を大きく塗り替え続けている技術の一つだ。
 世界各国の企業がこぞってLLMの開発を進めている。特にGAFAなどの巨大企業は、その膨大な資源を使ってすでにいくつものLLMを世に放っている。

 そんな中、日本では理化学研究所と富士通、東京工業大学、東北大学が、スーパーコンピュータ「富岳」を使ったLLMの研究を今まさに進めている。
 学習手法の研究からデータの法的な扱いまで幅広く検討し、日本のLLM開発の基盤を作るのが目的だ。

(以下略、続きはソースでご確認ください)

[谷井将人,ITmedia] 2023年09月11日 12時00分
https://www.itmedia.co.jp/news/articles/2309/11/news083.html
0002名無しのひみつ
垢版 |
2023/09/12(火) 22:29:15.92ID:TWgHaNpD
2位じゃダメなんですよ
0003名無しのひみつ
垢版 |
2023/09/12(火) 22:53:33.82ID:f7iHVfli
n-vidiaはGPUはAIに最適みたいな顔してるけど要る機能は積和算器とメモリだけだろ。邪道だね。
0004名無しのひみつ
垢版 |
2023/09/13(水) 03:14:37.38ID:NI9AGXNE
目先、富岳しか計算資源が無いというだけの話
結構空いてるのかww
0006名無しのひみつ
垢版 |
2023/09/13(水) 09:09:39.76ID:2cmkVL3/
>理化学研究所と富士通、東京工業大学、東北大学

全部世界の落ちこぼれじゃん

>>3
>>5
GPU無しでAI開発出来るけどコスパが悪すぎるだろ
市場価値の無い箱物事業やってるから世界との差が開くんだよ
0007名無しのひみつ
垢版 |
2023/09/13(水) 12:24:19.05ID:aeZQWG2T
2位じゃだめんなんですか?→3位でもいいじゃない
→4位じゃだめんなんですか?→100位でもいいじゃない→どうでもいいじゃない

こう持っていきたかった民主党
0008名無しのひみつ
垢版 |
2023/09/13(水) 12:37:28.25ID:rD+fCZE3
富岳に深層学習させた試験例がすでにあったぞ
0009名無しのひみつ
垢版 |
2023/09/13(水) 12:52:59.41ID:/Ln27Qdg
計算能力の無駄遣いだろ
脳そのものをシミュレートするくらいの事させたらどうだい
0010名無しのひみつ
垢版 |
2023/09/13(水) 13:04:15.20ID:QPJSWytf
日本は国策でCPUではなくGPUを開発しないといけないのでは
ああ、でもAMDですら苦戦してるソフトウェアを整備できないか
0011名無しのひみつ
垢版 |
2023/09/13(水) 13:06:04.65ID:2cmkVL3/
>>10
その通り
日本の弱点はソフトウェアだ
戦後物の無い時代に育った昭和の大人たちは
物欲が強すぎてハードにしか価値を見出さなかったのが敗因
0012名無しのひみつ
垢版 |
2023/09/13(水) 13:08:32.75ID:uvpebTMv
なぜGPU搭載機を使わないのか→占有できないから
なぜGPU非搭載の富岳を使うのか→使えるGPU搭載機がないから

ダメだわ
0013名無しのひみつ
垢版 |
2023/09/13(水) 13:09:02.68ID:oMHzKA8U
>>10
ソニーとニンテンドーという
結構な消費を見込める国内企業が2つもあるのにな。
0014名無しのひみつ
垢版 |
2023/09/13(水) 13:11:17.52ID:YRMFfhKx
10ゼタバイト級データセンター欲しい。
10TB/sレスポンス1ns未満無線光通信網欲しい。
32TB64GB/sSSD欲しい。
256コア4TBメモリPC欲しい。
0015名無しのひみつ
垢版 |
2023/09/13(水) 13:13:01.51ID:QFThrWil
>>2
スポーツ選手に同じこと言ったらボコボコにされるよ
0016名無しのひみつ
垢版 |
2023/09/13(水) 13:24:18.95ID:2/n6pHOV
国産GPUあったけどな~。どこかの大学発ベンチャーで。でも商用は難しいんよな。
0017名無しのひみつ
垢版 |
2023/09/13(水) 13:45:46.60ID:fdepfPtf
>>7
二位じゃダメだとわかって予算つけた民主党
こっそり中抜きしまくった自民党
結果がこの没落だ
0018名無しのひみつ
垢版 |
2023/09/13(水) 13:48:21.10ID:eWCstzfy
>>10
gpuは偶然グラフィック処理が行列演算だからaiに使えるだけで、行列演算出来るcpuなら開発出来る
asicやfpgaで開発研究して、実際に利用してるところもあるよ
汎用化出来ないから表に出ないけど
0019名無しのひみつ
垢版 |
2023/09/13(水) 13:54:21.97ID:VSE2pchk
こんなもんな予算組むよりさっさと量子コンピュータに注ぎ込めば良いものを
0020名無しのひみつ
垢版 |
2023/09/13(水) 13:56:03.16ID:oZDgAIUX
夜中、保守してる奴がネトゲ始めるからだろ 言わせんな
0021名無しのひみつ
垢版 |
2023/09/13(水) 14:19:41.81ID:9KZHLhGL
【モノを作るより中抜きした方が儲かる】

これを破壊しないとロクなもんが作られない
0022名無しのひみつ
垢版 |
2023/09/13(水) 14:43:37.23ID:HNWa3iuq
一応GPUあると思うよ。SoftbankはARM親会社である限り、ARMの知的財産は日本の知的財産。ARMはMaliGPUを持っている。もちろん日本で開発されていないが、日本の会社が権利を持っているだけ。もちろんNvidiaやAmdと比べ物にならない。Nvidiaと対決することはCPUでIntelと対決することやOSでMicrosoftと対決することと同じ、現状の日本では政治的にも経済的にも技術的にも無理。
0024名無しのひみつ
垢版 |
2023/09/13(水) 19:52:39.30ID:2cmkVL3/
>>15
大谷のことか(爆笑)

あいつはトップになりたがりの目立ちたがり屋で
チーム全体が迷惑してるんだよ

結果、怪我したから追い出されて終わりだよ
0025名無しのひみつ
垢版 |
2023/09/13(水) 23:16:43.87ID:Jnkk59Lp
>なぜ日本はGPUのない「富岳」でLLMを研究するのか
GPUをフル満載するほどの電気代が払えないからじゃないの?
0026名無しのひみつ
垢版 |
2023/09/13(水) 23:44:51.38ID:mkeRjK8c
日本は電気代が高いから
大量の電気を使うコンピューターは
使い辛いのではないですか?
0027名無しのひみつ
垢版 |
2023/09/14(木) 02:39:52.75ID:D+hO7Kfx
普通のPCなら
GPUの有無で深層学習使用時の計算速度が20倍違う、のは事実だよな

でもスパコンってCPUが何十万個も入ってるからなあ
しかもそれが相互に高速で通信し合って処理している

https://chizaizukan.com/property/450/
専用CPUの開発

>コンピュータの処理・制御を担い、計算速度を左右するCPU(Central Processing Unit:中央演算処理装置)を、理化学研究所と富士通が共同で開発。
従来型のCPUでは、データを記憶するメモリやネットワークを、プリント基板(絶縁層の板に配線などを配置した部品)でつないでいる。
そのため、プリント基板で処理時間を要し、それぞれの性能が高くても力を発揮しにくい状況があった。富岳では、CPU内部にCPU同士をつなぐ
ネットワーク機能「TofuD」を設置、メモリはシリコン基板でCPUと一体化し、計算・処理速度を向上させた。
富岳には同CPU が15万8,976個使われており、アプリケーションの実行性能は、前身のスーパーコンピュータ「京」
(稼働当時のCPU約8万個)の最大100倍超に到達している。

汎用性を持つCPU命令体系の採用

>CPUを動作させるための命令セットアーキテクチャには、スマートフォンなどに搭載されているCPUと同様のArm社仕様を採用。
富岳ではArm社仕様の命令セットを応用し、独自のCPUを開発している。Arm社仕様命令セットはスマートフォンを始め、
タブレットやゲーム機などで世界中で利用されており、汎用ソフトウェアやアプリケーションを動かすことができる。
富岳では、使いやすさの追求の中でArm社仕様を採用し、既存ソフトやアプリとの互換性を高めている。

そして
> 2020年6月には、演算速度性能・アプリケーションの実行性能・AI向けの計算性能・ビッグデータ解析性能の4部門で、世界第1位の評価を獲得。

GPU無しでもAI向けの性能は、2020年基準なら高いw と
でも今は2023年だ
AI向けだけならもっと良いものがどんどん出てきているか
0028名無しのひみつ
垢版 |
2023/09/14(木) 02:52:42.87ID:D+hO7Kfx
マザボにCPU1個、それにGPU付ける

そんな家庭用のPCや職場のワークステーションの構成で脳みそ固まってると
スパコンの構成だと違うだろうなあ、とはイメージできないって事になるか?

しかしそんなガラパゴスに甘んじていると、いきなり面倒な事になる可能性が懸念される
全てのAI関連モジュールがGPUやらTPUやらに最適化されて行くと
日本が必死で作った、CPUモジュール群によるスパコンでは最適なパフォーマンスを発揮しない
AIライブラリが世界中に普及して、何をするにしても日本で1から作らないといけない状況になってしまう

とにかく2020年基準では何とか世界トップクラスのAIに対する性能を出してくれたのは事実だ
しかし富岳も2025年には相当陳腐化してしまうだろうなあ

富岳搭載のCPUのA64FXは7nmプロセスで作られている
設計が富士通とARMで製造はTSMC
0029名無しのひみつ
垢版 |
2023/09/14(木) 09:17:00.86ID:U0IIUQqR
>>25
グラボのGPUは電気代には関係ない
電気代はグラボのVRAMで決まる

電気代のかかるVRAMはコンシューマ向けの安いGDDRメモリだが
NVIDIAやAMDの法人用データセンター向けグラボは
HBMメモリを使ってるから電気代が安い

富嶽もHBM使ってる

あと富岳の7nmはワットパフォーマンスが悪い

TSMCの5nmからはASMLのEUVの進化でワッパがめちゃくちゃ良くなってる
アップルのMシリーズのSoCは5nm以下で作られてる

だから富岳は既に周回遅れになってる

AZUREやAWSなどのクラウドは次々出てくるNVIDIAの新型グラボを搭載して
AI処理能力を高めてるが、富岳は作りっぱなしだから指くわえて見てるだけ
0030名無しのひみつ
垢版 |
2023/09/14(木) 09:30:32.51ID:bVZTNW5m
昔、グレープとか作って、三体計算か何かしてなかったっけ?
単機能チップを低コストで作る技術はあるんじゃない?

それとも、あの研究者が天才だっただけ?
0031名無しのひみつ
垢版 |
2023/09/14(木) 10:17:36.45ID:00BbSqU7
GPUが演算がCPUよりも早い場合というのは、演算回路が沢山並列に動く場合。
そのようなときには、効率はCPUよりもよいとしても結局非常に多くの電気を消費することになる。
そうすると電気代もかかるし、冷却の能力も上げなければならなくなる。
0032名無しのひみつ
垢版 |
2023/09/14(木) 23:22:20.20ID:IXDQ1crp
カネがないのだけはわかったわ
つなぎはいいけどその後どうすんの?
0033名無しのひみつ
垢版 |
2023/09/14(木) 23:24:11.22ID:IXDQ1crp
シリコンはもう限界
ミニ脳を作れ
バイオだよ
人間の脳の大きさで人間並みの知能やぞ
0034名無しのひみつ
垢版 |
2023/09/15(金) 05:57:01.34ID:utRCGJ3w
>>10
年功序列終身雇用を撤廃して老害を追い出さない事には何も始まらんよこの国は
0035名無しのひみつ
垢版 |
2023/09/15(金) 07:45:18.96ID:r4ULM2/h
今にネコや犬やヒトの脳を培養器に入れてそこに、無数の微小電極を入れて
生体ニューラルネットによるAI装置が作られるようになるかもしれない。
そうして死んだ人間の脳を生かし続けておいて、そこから記憶を取り出す
というようなことも未来では可能になるのかもしれない。
死んだ人の脳から、スイス銀行の預金の口座番号や暗証番号を取り出す
サービスとか、殺害された被害者の脳から殺害犯人の殺害時の状況を
取り出したり、死刑になった人間から犯行時の記憶を取り出したり、
用途はいろいろ、人生いろいろ。しかし一部機関でだけそのような
記憶の取り出しが可能だと、本当とは違う捏造が行われて、不都合な
真実は隠されたり歪められたりするかもしれず、それが真実とされて
しまうかもしれないから、技術は諸刃の剣だ。
Spring−8がヒ素殺人事件で裁判官の目を眩ますために悪用されたように。
0036名無しのひみつ
垢版 |
2023/09/15(金) 23:21:23.44ID:jvcKvaTt
記憶はどこに宿るのか
筋肉かもしれない
アカシックレコードにリーチしてるのかも
0037名無しのひみつ
垢版 |
2023/09/16(土) 09:48:15.86ID:c6Zx6YkJ
Why Japan is building its own version of ChatGPT
nature, 14 September 2023
https://www.nature.com/articles/d41586-023-02868-z

こういうのでネーチャーの論文が1本稼げる人もいるんだね。
0038名無しのひみつ
垢版 |
2023/09/16(土) 13:10:46.46ID:Z9YS/eDp
なんで映像特化のGPUでAI?と思ったら
GPUのほうがコア数が多くて並列計算が得意って性質がAIによく合ってたからか
富岳って小型PCをより集めたタイプだからGPUと同じようなことはできるでしょ
0039名無しのひみつ
垢版 |
2023/09/16(土) 16:18:31.17ID:6RLG1YNL
>>38
今のPCやワークステーションだと、NVIDIAのGPUを積んでいるものは
積んでいないものに比べて、AIのライブラリである
tensorflowの実行速度が5~100倍は違うんだよ
あるいは全く動かない事すらある

でもPCと違ってスパコンはマルチCPUだから、GPUと「ほぼ」同じようなことは出来るからなあ

https://www.exa-corp.co.jp/technews/download/EVF2021_2-3.pdf
ちょっと設定は変わるよね
その分だけ技術者が追加で学ばないといかん
0040名無しのひみつ
垢版 |
2023/09/16(土) 16:32:00.33ID:6RLG1YNL
horovodというライブラリでtensorflowをラップすると
富岳などで使えるって仕様か

で、この企業では富岳と同じような並列計算を、
しかしずっとずっとずっと低性能でしか出来ない
貧岳という、ラズパイ4枚が動くマルチコンピュータ+データ通信し合うシステムを作って
富岳に自作モジュールを移す前のテストに使っていると

それに対して、国産で余計な事すんじゃねーよさっさとNVIDIAに100%魂を預けろ!!!
というのが>>1記事だ

ARMの安価なCPUで300個くらいのマルチコアで国産ワークステーションとか
作る企業が出来てもいいのかもね
LINUXが動いてて
0041名無しのひみつ
垢版 |
2023/09/16(土) 16:50:59.57ID:6RLG1YNL
https://qiita.com/hara2dev/items/d226d7c06e3785a3f589
mesh-tensorflowという並列計算できるライブラリもあるが
これはいきなりだと富岳では動かず
前にシェルスクリプトで環境構築してやる必要がある、と

いやぁ
やっぱり科学技術計算のIT技術と
サーバー構築、Web利用のIT技術って
壁があるって事だよなあ
>>1記事著者の谷井将人氏はそこを知らんかったと

でも、今の時代

「えーっと入札の結果~社から人材を派遣してもらいます」
「弊社の人材はPCおよびワークステーションでのtensorflowおよびpytorchおよびtransfomerの
仕様経験が5年有ります」
で入ったと思ったら、GPUは使えないわググって出て来たmesh-tensorflowは使えないわで
半年でクビ!なんて事になるわけでw

科学系数値計算のできる人材はちゃんと登録して囲い込まないとダメって事だな
0042名無しのひみつ
垢版 |
2023/09/16(土) 17:12:03.25ID:6RLG1YNL
富岳での3D深層学習シミュレーションのためのライブラリを
日本のIT企業が作って
tensorfowを富岳で動かした時より19倍速くなった、なんてニュースもある

>>11
>日本の弱点はソフトウェアだ

まあ、日本で独自に富岳用に作って解決したものもあるんだなw

で、それが進んで来ると今度はガラパゴスと叩かれると
0043名無しのひみつ
垢版 |
2023/09/23(土) 19:22:40.52ID:o29CnuuZ
ひたすら規模の拡大を目指すのは、主砲の口径を大きくすれば無敵の戦艦ができるというのと同じような発想。
スケーリング則とかは、予算獲得の正当化手段。Linpackなどと同じ匂いがする。
0044名無しのひみつ
垢版 |
2023/09/24(日) 10:38:25.12ID:eHwJsRdL
日本はソフトが弱いというより国自体が未だに価値を見出していない
>>42
みたいなソフト作っても国は支援しないんだから後が続かないのが致命的だよ

再エネとかMRJとかハードには数百億ポンと出すのにソフトウェアの新規事業育成なんて
やる気がねえんだから産業界もそれ相応の対応しか出来ねえわな

マイナンバーとかE-Taxとか既存の図体だけがデカい企業を潤してるだけだしな
0045名無しのひみつ
垢版 |
2023/09/24(日) 14:28:58.32ID:KnG24T1I
Nvidiaは会社の8割はソフト開発関係。つまり圧倒的にソフト主体の会社。
GPUの設計をする人は居るが、製造は外部に丸投げ。
AIや機械学習でNvidiaが先を行っているのは、アプリの性能を出す為の
ソフトウエアの利用環境の整備がいま一番進んでいるのがNvidiaに
対するものだから。デファクトスタンダードになっているので、
海外の先進の研究所や大学での研究でNvidiaの利用環境で新しい
アプリが作られ、それをまた前提にしてアプリが作られ、という
具合に物事がNvidia中心に回ってしまっている。他のCPUやGPU
向けにNvidia前提で書かれたたとえソースコードで提供されている
アプリがあったとしても、それを書き直したり性能をチューニング
したり、動作が正しいかを検証するのには時間と手間がかかるし、
Nvidiaの事情もよく知っている人が作業しなければならない。
進化の早い半年経つと様子が変わっていたりするような分野では
そのような問題を解くための本質とは直接関係のないハードの
相違による利用環境の違いを摺り合わせているのに時間をとられたら
競争に負ける。みながそう思い込んでNvidiaの方ばかりを向いて
アプリを積み上げて行くから、当分その傾向は続く(慣性の法則)し、
ぼったくり価格で売られていると思っても買うしか無い。
実際ハードの値段にはそれの利用環境を開発し整備するための
人的コストが上乗せされなければやってられないから、
それも値段に入って来る。単なるハードの性能の値段ではない。
0046名無しのひみつ
垢版 |
2023/09/24(日) 14:55:03.59ID:lSHSoA9q
>>22
日本ではない、朝鮮電話。
0047名無しのひみつ
垢版 |
2023/09/26(火) 22:20:42.89ID:c2uV2LIh
9月 25, 2023
中国を恐れる米国、中東へのエヌビディアGPUの販売をブロック
HPCwire Japan
https://www.hpcwire.jp/archives/78377
0048名無しのひみつ
垢版 |
2023/09/27(水) 12:31:51.47ID:AvhFzEZE
疎な行列ってかテンソルを高速に演算できりゃ良いってか
それだけみりゃ、FEM向けとかと変わらないっちゃ変わらないが

ちょっと違うのは、飽和演算じゅうよーで
高精度のFP64とかもいらなくて
いっその事、FP8でいい!って言う
ある意味、極端な概算なんだよな

そー言う意味では、超高精度な計算を追求し続けた、従来型の科学演算向けコンピュータには不利って側面はある
0049名無しのひみつ
垢版 |
2023/09/27(水) 18:27:50.49ID:enqsaqlt
低精度だと、ロス関数の最小化の反復がなかなかうまく下がって行かなくて、
ガタンガタンと変なスパイクが生じたりしてしまうことが良くある。
精度を増すとすーっと下がるのに。だからうまく行くときはいいが
ダメな時はダメみたいな結果論になってしまう。うまく行けば成功だみたいな。
0050名無しのひみつ
垢版 |
2023/09/27(水) 20:33:02.50ID:Q0hXPtyy
>>40
ほほぅ、、、
0051名無しのひみつ
垢版 |
2023/09/27(水) 23:22:01.43ID:AvhFzEZE
>>38
GPUの何が良いかってのは価格だけど

元々、画像処理、と言うかゲーム向けだったから、と言うアレな理由だからね

つまり、ゲームとかの画像処理なら
ぶっちゃけ32bit処理じゃなくてもヨクネ?
24bitとかでヨクネ?
いや、16bit処理でも、ぶっちゃけゲーム画面は大きく崩れなくね?って言う手抜き…じゃない
合理的理由で、低精度の積和演算器を大量に載せてる事で処理が速いんだよね
だから、低精度でも構わないAI…ニューラルネットワーク演算が速い、と言うw

今のはAI向けに8bitまで精度落として、さらに高速化してるしね
精度が低いと弊害もあるけど

勿論、科学演算向けGPUファミリはFP64なんかも処理出来る様になってる訳だけど
0052名無しのひみつ
垢版 |
2023/09/28(木) 23:40:22.46ID:XmyMA0D4
いまはソースコードのやりとりがお手軽にできるし、論文あるいはプレプリントも
オープンアクセスだったりネットワークの速度で即座に手に入るし、調べ物を
するのにサーチエンジンがあるから、物事の進化、情報の拡散が実に早いな。
ハードの世代進化もかつては5−6年ごととか短くても数年ごとだったのに、
いまは半年に1世代ずつ少しずつ代わっていく。
昔のように、IBMメインフレームコンパチ・準拠のマシンを5−6年使い続けたり、
あるいはリプレースしても結局はIBM370互換のままだったりで20年30年続いたり、
DEC VAX780が出たらそれをやはり5−6年(リース・レンタルのサイクル期間程度)
使ってその次もそのファミリーを使いみたいなソフトウェア環境が安定していると
いえば聞こえが良いが、停滞気味であったころと較べると、いまはOSがフリーで
ソースコード付きで誰でも自由にダウンロードできて、みたいな時代になって
まさに隔世の感がある。でもいい加減Cは亡びて欲しい。
0053名無しのひみつ
垢版 |
2023/09/29(金) 00:25:56.07ID:212Nuq6a
>>52
その前に、もっと滅びて欲しいのがあるだろうが!

FORTRANとか!
FORTRANとか!
FORTRANとか!
0054名無しのひみつ
垢版 |
2023/09/30(土) 19:44:47.45ID:/N+npkT/
FORTRAN(いまならFortran90とかFortran2013など)は数値の計算に特化して使う場合には、
CやC++よりもシンプルで安全だよ。ただ、言語を知っている・書ける人が激減しているために、
絶滅危惧種ではあるのは確かなんだ。

Unix系のOSがカーネルの一番下層部分やデバイスドライバを別として
C言語を使うのを止めて、もっとより安全な言語を採用すればセキュティの
問題のかなりの割合が減るはずだが、既存のC言語で書かれたコードの蓄えが
あまりにも多いので、なかなかそうはならない。
0055名無しのひみつ
垢版 |
2023/10/07(土) 16:39:18.28ID:DBEynSoO
OSのAPIが C言語インタフェースになっているうちは、
危険なC言語はなかなか撲滅されないのだろうな。
性能本位なのかもしれないが。

C言語そのものは、プログラミングスタイルとして
プログラムは「プロセス」で動くとしていて、
マルチスレッド・マルチコアだとか、マルチプロセス・マルチノードは、
OSへのAPIを介在させて実現せねばならず面倒な感じがする。
0056名無しのひみつ
垢版 |
2023/10/08(日) 10:43:42.38ID:Fx3KIL5B
>>54
元々虚数を扱う事を前提とした言語ってFortranだけだったしね
今はMatlabとかあるけどインタプリタで遅いし
実行速度と数値計算特化というニッチな使い方ではFortranはまだまだ有力候補だよ

GPUに関してはハードなんだから日本も勝算あったかもしらんが
どう使うか?を考える力が企業含めて弱いのでやっぱり駄目ですかね
0057名無しのひみつ
垢版 |
2023/10/13(金) 19:59:28.16ID:534QdPr7
GPUは科学演算においては安いけど用途を選ぶ、びみょーって扱いだったけど
AI…と言うか、ニューラルネットワークの計算において
ゲーム用途譲りの低精度の高速演算が有利に働いた
だからまぁ、運に恵まれた、とも言える

GPUを汎用的に使おうぜ!ってなってた時の評価なんて
FP32?FP64以上じゃなきゃ科学向けには使えないっしょ!って感じだったからね…
0058名無しのひみつ
垢版 |
2023/10/16(月) 12:17:00.99ID:RHGLwkZt
>>57
AIを作るにはボトムアップ方式で賢いプログラムを作る必要があるだとか、トップダウン方式で脳を解明する必要があるだとか言われてた時代に、突然AlphaGOがで囲碁プロに勝ったのが始まりかな
bit精度より、多入力多出力のニューラル・ネットワークを多層組み合わせるだけで人に勝てるとはね
0059名無しのひみつ
垢版 |
2023/10/17(火) 14:56:41.21ID:PEVjT/i6
>>54
>Unix系のOSがカーネルの一番下層部分やデバイスドライバを別として
>.C言語を使うのを止めて、もっとより安全な言語を採用すればセキュティの
>問題のかなりの割合が減るはずだが、既存のC言語で書かれたコードの蓄えが
>あまりにも多いので、なかなかそうはならない。

ほとんどのセキュリティ問題は特権モードで動くカーネルやデバイスドライバで起きるし、カーネルの上層だってメモ
リ管理がいいかげんなそこらの言語は使えずポインタだらけになるし、ユーザーアプリを乗っ取ってDDOSに使うにし
たって対象はメジャーなアプリで一点ものの数値計算プログラムなんて誰も相手にしないのに、お前馬鹿だなあ
0060名無しのひみつ
垢版 |
2023/10/17(火) 19:53:29.54ID:LZgVSG0W
富岳ってそんなに使われてないの?
0061名無しのひみつ
垢版 |
2023/11/25(土) 12:56:31.28ID:DY/v/j71
ベンチマークの性能は良いんだがな。
0062名無しのひみつ
垢版 |
2023/11/25(土) 14:07:39.14ID:4DoPzyLQ
11
>> 4
GPUはVRAM帯域が実際には名目値よりも遅い
更にPCIe介するため、メモリ容量が正義な計算では遅い、構造・流体解析とか

13
見るべきは、ここなんだよな

メモリ容量 141GB
メモリ帯域幅 4.8TB/s

これだけの帯域でCPU/GPUがメモリを介して蜜結合になってるって、LINPACK番長ではありえないわけだ
けど、実用的な多くの問題は相互結合網がボトルネックになるから
___

数理計算用のスパコン(更にベクトル型とスカラー型を組み合わせる)と
GPUメインの深層学習&transformer計算スパコンと
量子コンピュータという
3タイプのスパコンが出来るのか

さてこれを上手に組み合わせて科学技術&情報計算を最適に行うという
技術も開発しないといけないのかどうか

サム・アルトマン解任騒動で
文章生成AIが数学に対して弱い面の改善手法に関して意見が紛糾していたなんて書いてあったなあ
その目星が付いたのが収まった原因の1つだとも

文章生成AIを含む対話型AIが「数学計算の質問に対しては文章生成AIでは正答しにくいのでスパコンやmathematicaやsympyに任せる」
という判断をしてくれればいい、って話にはずっと前からなっていた
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況