AIの小規模言語モデル(SLM)に研究者たちが送る熱視線
大規模なAIモデルは、より幅広いタスクに対応できる。だが、小規模なモデルは必要なリソースを削減でき、環境負荷を減らすことができる。それが研究者を惹きつけるツールとしての魅力だ。

 AIモデルのなかでも大規模言語モデル(LLM:large language model)はうまく機能する。
 なぜなら極めて規模が大きいだからだ。
 OpenAI、メタ・プラットフォームズ、そしてDeepSeekの提供する最新のAIモデルでは、数千億の「パラメーター(データ同士のつながり具合を決める調整つまみのようなもので、学習過程においてはそれらが微調整されていく)」が使われている。

 パラメーターが多いと、AIモデルはよりよくパターンや関係性を認識できるようになる。
 それによって、より強力でより正確になるというわけだ。

(以下略、続きはソースでご確認ください)

Wired 2025.06.02
https://wired.jp/article/why-researchers-are-turning-to-small-language-models/