0001すらいむ ★
2024/04/16(火) 22:37:35.26ID:1EZn8uJJ[山下裕毅,ITmedia]
米シカゴ大学に所属する研究者らが発表した論文「Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models」は、生成AIモデルの無断学習を抑止するために、学習されても予期せぬ動作をAIモデルに生成させる毒入りデータに画像を変換するツールを提案した研究報告である。
この攻撃は「Nightshade」と名付けられ、約200枚の細工画像をモデルの学習データに紛れ込ませるだけで、特定の単語に関連する画像生成を高確率で操作できてしまう。
(以下略、続きはソースでご確認ください)
itmedia 2024年04月15日 12時00分
https://www.itmedia.co.jp/aiplus/articles/2404/15/news037.html