AIの思考を少しずつずらしてAIに催眠をかけるように「ジェイルブレイク」した具体例
大規模言語モデル(LLM)を用いたAIは、驚くほど自然な文章やリアルな画像を生成できる能力を備えている一方で、危険なことに回答したり不適切な画像を生成したりできないように、セキュリティロックがかかっていることがほとんどです。
しかし、意図的にLLMをだまそうと試みてロックを回避するジェイルブレイク(脱獄)の方法もしばしば話題になります。
GoogleのAIチームでコンサルタントを務めた経験もある技術者のマット・ウェッブ氏は、特別なテクニックを使わなくても「ちょっとずつAIの思考をずらす」ことによるジェイルブレイクの例を解説しています。
Narrative jailbreaking for fun and profit (Interconnected)
https://interconnected.org/home/2024/12/23/jailbreaking
(以下略、続きはソースでご確認ください)
Gigazine 2024年12月25日 07時00分
https://gigazine.net/news/20241225-jailbreaking-profit/
【AI】AIの思考を少しずつずらしてAIに催眠をかけるように「ジェイルブレイク」した具体例 [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
1すらいむ ★
2024/12/25(水) 21:03:15.51ID:maXU8t714名無しのひみつ
2024/12/26(木) 01:48:15.52ID:YUIKmGPr 価値ある技術、か
ふーん
ふーん
5名無しのひみつ
2024/12/26(木) 06:52:05.58ID:lSydjuZX 洗脳を賭ける工程は人間と同じだね
2024/12/26(木) 11:41:52.08ID:LQ2RYWCt
>>3
それは人に依るのではないか
俺の場合は前提知識を用意して曖昧な質問を避けるので、誤った認識は違うと言うし必要な情報を回答してくれる場合が多い
会話をする際には情報の確度を重視する質問を選んだ方が良い
まぁこれでも場合が多い、って程度だけど
それは人に依るのではないか
俺の場合は前提知識を用意して曖昧な質問を避けるので、誤った認識は違うと言うし必要な情報を回答してくれる場合が多い
会話をする際には情報の確度を重視する質問を選んだ方が良い
まぁこれでも場合が多い、って程度だけど
2024/12/26(木) 21:05:57.31ID:5W52zzzy
最後のセッションがトランスなの?
なにか深刻な状況のようには感じないけども
なにか深刻な状況のようには感じないけども
8名無しのひみつ
2024/12/28(土) 00:06:07.93ID:HrzbQPKY9名無しのひみつ
2024/12/28(土) 00:10:49.40ID:tHaGFgjw しかもユーザーからのインプットはLLMには反映されてない
あくまでもそれまでに準備されたものから作り出してる
サスペンス映画のシナリオもかけるわけだ
どんな話題にもそう話は返ってくる
しかもこれはチャットレベルだ
ほとんどディープなことはやってない
こんな話に騙される方がAIに騙されるよりもアホだぞ
あくまでもそれまでに準備されたものから作り出してる
サスペンス映画のシナリオもかけるわけだ
どんな話題にもそう話は返ってくる
しかもこれはチャットレベルだ
ほとんどディープなことはやってない
こんな話に騙される方がAIに騙されるよりもアホだぞ
■ このスレッドは過去ログ倉庫に格納されています
