「ChatGPT」などの生成AIを欺くことに研究者らが成功、安全性に警鐘 - ZDNET Japan
https://japan.zdnet.com/article/35207115/

Maria Diaz (ZDNET.com) 翻訳校正: 編集部2023年07月28日 09時42分

カーネギーメロン大学と非営利団体Center for AI Safetyの研究者らが協力し、OpenAIの「ChatGPT」、Googleの「Bard」、新興企業Anthropicの「Claude」など、AIチャットボットの脆弱性について調査した。その結果をまとめた報告書によると、これらは悪意あるプロンプトに対して脆弱であることが明らかになったという。

多くの人が、人工知能(AI)ツールを日常的に使うようになっているが、セキュリティーの脆弱性に対して、完全に無縁ではないことを肝に銘じる必要がありそうだ。

 研究者らは、自動敵対的攻撃に対する大規模言語モデル(LLM)の脆弱性を検証した報告書で、(略)

※省略していますので全文はソース元を参照して下さい。