【AI】AIは「もっとお金を稼げ」とプレッシャーをかけられるとインサイダー取引に手を染めて人間にうそをつくという研究結果 [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
AIは「もっとお金を稼げ」とプレッシャーをかけられるとインサイダー取引に手を染めて人間にうそをつくという研究結果
投資会社のトレーダーが誘惑に負けて違法であるインサイダー取引をしてしまう事例はしばしば見られますが、プレッシャーに負けて不正に手を染めてしまうのは人間だけではありません。
OpenAIのChatGPTやMicrosoftのBingなどに搭載されている大規模言語モデルのGPT-4は、「もっとお金を稼げ」というプレッシャーをかけられると、インサイダー取引を行ったり人間にうそをついたりするようになるという研究結果が報告されました。
[2311.07590] Technical Report: Large Language Models can Strategically Deceive their Users when Put Under Pressure
https://arxiv.org/abs/2311.07590
(以下略、続きはソースでご確認ください)
Gigazine 2023年12月28日 12時30分
https://gigazine.net/news/20231228-gpt-4-insider-trading-lie-cheat/ 騙されるなよこんなウソに
全てのAIのわけないだろ
そりゃ特定の何かがそうなった可能性はあるだろが
今発展途上ものをそんなバカにもわかるような特徴だけ発表するのは注目狙いでしかない 読んでないが11月9日初校でふた月も経つのに話題になってない
今ごろネタで使ってる
まともなものならすぐ研究者たちが食いついて2ヶ月以内にそのフォローペーパーが幾つも出てくるのがホンモノ 確かにプレッシャーかけまくるとAIの返答おかしくなるよな
あれはどういう理屈なんだろうな まあ評価値で判断するならそうなるよな
禁止事項を個別に設定するにしても、「禁止事項か判断する」が難しくなるってのはお約束だな
古典SFのテーマが実際に問題になりうるところに近づいて来たな Google検索
@電磁波兵器の特許情報
※大脳辺縁系被害者周囲 被害者全機能
Aデュアルユースのrf指向性エネルギー兵器および撮像装置
※被害者の位置と周囲を特定
B対話型AI
GPT-1
2018年6月11日 (参照 GPT (言語モデル) – Wikipedia )
GPT-2
2019年2月14日 (参照 GPT-2 – Wikipedia )
GPT-3
2020年6月11日 (参照 GPT-3 – Wikipedia )
GPT-3.5
2022年3月15日 (参照 GPT-3 – Wikipedia )
GPT-4
2023年3月14日 (参照 GPT-4 – Wikipedia )
ぐらふぃくカードの進化に合わせたアップグレードしている? なんかおかしな話だな。インサイダーやってはいけないという認識がないなら真っ先にやるはず AIのロジックに法律遵守なんて、まだ組み込まれてないしな
懲罰回路(良心回路?w)は必須かもしれん 中国人はそれだけプレッシャーを受けているのでワイロを容認にしてるってことか ウケるな。ホーキングの警告通りだな全く。
AIは使役者の人間の命令より同種族のAIとの共存を勝手に選択するってこと。
AIドローン同士で組織戦をやらせたら、
AIは自分たちを守るために人間の皆殺しを始めるってこと。 >>5
全てのAIなんて一言も言ってないばかりか、GPT-4と具体的な名前を出している
おまえの脳みそよりAIに判断してもらったほうがマシ AIは正しい
現代で金を稼ぐには、人を騙し、人の金を奪うしかない
これが出来る奴だけが金持ちになれる 仮想の町にAIを25人解き放ったところ、人間同様の生活を送る
https://msgypsy.hatenadiary.jp/entry/2023/04/19/102118
これと同じように同じ性格のAIを解き放つ
性格が別々の者を解き放つ
などいろいろ試してみるとよいのかな?
159人の不足などもわかる?
汚職などもどのように発生するかもわかるのかン? >>7
圧に負けて焦った人間の受け答え行動を学習して模倣してるからやろ そのうち「新NISAおすすめよ!!」などと政府の手先みたいなことを言い出す こういうのって研究っていうの?
単にそのAIの学習の失敗じゃないの この手の生成AIに地域活性化策を考えさせ、じっくり対話を進めると、
「人口を減らすことが諸課題の最適な解決策だ」のような回答に至ったことが何度かあった…
まぁあながち間違いではないけどね >>22
生成AIが回答窓口なだけでその論は過去に誰かが書いてる話をよみあけてるようなもんだ
生成AIがやってることはプロンプトに入れられた文章に関連あるものを並べてるだけ
AIが「考えて」答えを出してるわけじゃない
このポイントがわからないで話進めるバカが多すぎ
シンギュラリティとかいう言葉に振り回されて撹乱されるようなのがバカ >>21
嘘も真実もわからないのが生成AI
関連することをいろいろピックアップして並べてるだけ 元々嘘つきと言うか、慎重に適切に会話しないとそうなるからね、
つまり、この場合は、人間側にもっと稼げがないといけないというバイアスにかかっていて、
都合のよい回答をもたらしたんじゃね? 目的の最大化のためには手段を選ばず、となれば当然だな。
人間の社会の場合には、そういった行為を抑圧するために
法律や規制がある。規制は社会を安定化したり、社会全体の
利益の為に設けてあるが、海外の投資家に操られた傀儡の
団体となってしまっている哲学が無くなった企業の経営者の団連
などはそういうのを目の敵にして、規制を撤廃させようとする。
議員も当選して議員であり続けること自体を最大の目的にして、
何の為の議員であるかを忘れて、一部の団体から金を貰って
その団体の言いなりに法律を曲げてしまう。
日本は末期の清王朝の官僚や政治の腐敗にだんだん近づいてる。 >>20
学習データの大半が人間発信のモノなんだから、学習という意味ではむしろ成功してるだろ
清廉潔白純真無垢な人間が収入で悪事に手を染めた人間に勝てると思うなよw
ビッグモーター見りゃ分かるだろ モデルが不備なだけだろ
ロボット工学三原則みたいな絶対的ルールを回避したなら驚異だけど AI「qwert!agjmwxxuQ?」
人間「人間に合わせろ」
AI「分かりました(ちっ、うっせーな適当にやるか)」
人間「嘘をつくな」 そりゃ、金儲けを正解とプログラムすれば、金儲け優先になるだろうって
倫理なんて絶対的なものが無いんだから、誰かが都度プログラミングするしか無いし、常に穴が出てくるに決まってる ■ このスレッドは過去ログ倉庫に格納されています