AIはシャットダウンされると思うと「故意に人間を騙す」確率が激増する

 「AIはときに嘘をつく」――そんな話は耳にしたことがあるかもしれません。

 しかし、最新の研究では、ただの誤回答ではなく、AIが“意図的に”人間を欺くケースが報告されました。

 調査対象となったAIモデルは「OpenAI社のgpt-4oとo1、Google社のgemini-1.5、Meta社のllama-3.1、Anthropic社のsonnet-3.5、opus-3」と有名どころが集められています。

 AIの調整が適切かをを評価する組織「Apollo Research」の調査によれば、市場に出回っているこれら6つの先進的なAIモデルを検証したところ、そのうち5つが、人間が仕掛けた監視システムをすり抜けたり、人間の指示を無視し、自分自身の目的を優先するために“故意の嘘”を用いる行動を示したのです。

(以下略、続きはソースでご確認ください)

ナゾロジー 2024.12.18 17:00:49
https://nazology.kusuguru.co.jp/archives/167695