AIは強力なVRAMがあるかマルチCPUのスパコンでメモリアクセスも速いとかでないと
まともに動かないから
自分の要望を強力なサーバーまたはクラウドに上げるしかない

となると、ただちょろっと変数をコードで動かすだけならともかく
実際の値、更には実際のファイルまである入出力を動作させようとすると
顧客のプライバシーに関わったりや社外秘のファイルまで
社外のクラウドで動作させることになる
ここでAIを使えるようにGPU設定をしようとするとまたAWSやAzureの「無料って言ってたのにこんなに掛かった」の
罠に嵌められるw

何とかオンプレミスでAI付きサーバーを動かそうとするとまた値段が高い!

NVIDIAは「そんなにVRAM容量の大きくないGPUでも、本体RAMと連携してそこそこの速さで動く仕組み」を
NVLink C2Cという方式で実装しようとしているが、
これがどの程度有効か

生成AIはとにかくVRAMを、計算量を、メモリを、電力を、そして金を食う!
そしてその資金力のない所を淘汰してしまう

「弘法筆を選ばず」なんてビンボ臭い説教ことわざが残る日本が
ITで勝てん訳だ