うーん結局ガラパゴス化なんだよな
性能悪い方をあえて使うとは思えないんだけど

NTTは独自開発する大規模言語モデルについて、性能の指標となる「パラメーター」の数を70億?300億とする計画だ。オープンAIが20年に開発し、チャットGPTのベースになった「GPT-3」のパラメーター数は1750億で、NTTはその10分の1程度になる。
パラメーター数の多いモデルは幅広い知識を身につけられるが、消費電力が膨大なのが課題だ。チャットGPTの運用費は1日あたり70万ドル(約1億円)にのぼるともいわれる。