「知識蒸留」がAIモデルをさらに小さく安価にする
規模が大きく高価なAIモデルの「知識のエッセンス」を抽出して学習させ、コンパクトなAIモデルつくるための基盤技術、それが「蒸留」だ。

 中国の人工知能(AI)企業であるDeepSeekは、2025年のはじめにR1というチャットボットをリリースし、大きな注目を浴びた。
 人々の関心を集めたのは、無名だった小さな企業が「このチャットボットの開発に要したコンピューター処理能力とコストはごくわずかだが、世界で最も有名なAI企業がつくるモデルに匹敵する性能をもつ」と発表したことだった。
 その結果、欧米の多くのテック企業の株価が急落し、最先端AIモデルを動かすためのチップを販売するNVIDIAの株価は、株式市場史上最大の下落幅をたった1日で記録した。

 注目には、いくらか非難の色合いもあった。
 DeepSeekは「蒸留(distillation/ディスティレーション)」と呼ばれる技術を使い、OpenAIが所有するAIモデルo1から無断で知識を得たのではないか、と消息筋が主張したのだ。
 報道の多くはその可能性を、AI業界を揺るがす衝撃的な出来事として扱い、DeepSeekがAI構築のために新しく、より効率的な手法を発見したと示唆した。

(以下略、続きはソースでご確認ください)

Wired 2026.01.21
https://wired.jp/article/how-distillation-makes-ai-models-smaller-and-cheaper/