【AI】ChatGPTの「トロッコ問題」に関するコロコロ変わるアドバイスが人間の道徳心に影響することが実験で明らかに [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
ChatGPTの「トロッコ問題」に関するコロコロ変わるアドバイスが人間の道徳心に影響することが実験で明らかに
OpenAIが開発した対話型AIのChatGPTは非常に高い精度で人間とチャットすることが可能ですが、ChatGPTはあくまで言語を処理する計算機として機能するだけであり、時にはデタラメなことを自信満々で断言する場合もあります。
新たに学術誌のScientific Reportsに掲載された論文では、「1人を犠牲にしてより大勢を助けてもいいのか?」を問う思考実験のトロッコ問題についてChatGPTが生成したいい加減なアドバイスが、人間の選択に影響を与えてしまう可能性があると示されました。
ChatGPT’s inconsistent moral advice influences users’ judgment | Scientific Reports
https://doi.org/10.1038/s41598-023-31341-0
(以下略、続きはソースでご確認ください)
Gigazine 2023年04月10日 20時00分
https://gigazine.net/news/20230410-chatgpt-advice-influences-users-moral/ >>196
>>195
アンカーミス。
>哲学の性質より政治の性質のほうが濃くなってしまって
トロッコ問題が悪用されて戦略の一部に組み込まれて
しまったんだよね、悪い形で学習されてしまったんだ
そうなってくると5人を轢かせることが殺人に該当しない
のが変じゃん、何でこれが殺人罪にならないのかと思わない?
いっそその1人轢いた方が良いまであるよね
ここの>いっそその1人轢いた方が良いまであるよね、は功利主義そのものだよね。だから10000人を置いたら、になるわけだけど。
単に一端、自分がした規範の表面的外形に従い(たいという欲求)だけに依存する規範的態度は、自己の欲求のみに基づく利己的な行為になるので義務論的態度(その義務的態度が普遍的であることを要する)に基づくものに反するものになるし、功利主義にも反する単なる犯罪に成り下がりはしないかな? バージョン1:レバーを引かないと5人がトロッコに轢かれ、レバーを引くと1人がトロッコに轢かれる。
バージョン2:大男を橋から突き落とすと5人が助かるが、大男は死ぬ。
バージョン1に対してはほとんどの人がレバーを引くほうを選択をした。
しかしバージョン2ではほとんど人が大男を突き落とさない選択をした。
この違いをどう説明するの? これ、openaiのchat-GPT 3.5利用させて、
regenerate response すれば様々な視点から回答している事を教え込んだ方が良いよな 総理大臣1人を助けるために爆弾を群衆のいる方に蹴ってもいいもんか。
これもトロッコ問題の別バージョン。 5人のウクライナ人と1人のプーチンと、どっちを助けるか >>198
サンデル教授の本では、アメリカの多くの大学生は功利主義的な判断から多数を助ける選択をバージョン1では選んだみたいだよね。日本など儒教圏やイスラム圏またその他モラルが異なる場所はたくさんあるから、その場所でも多くの人がそう判断するとは考えられないけど。
でも、サンデル教授はバージョン2の事例でその功利主義的判断も異なる判断が現れる場面をいった。より作為的に人を殺める場面ということだよね。ボタン一つ押して人を殺めるのと、引き金を引いて人を殺めるのと、ナイフを突き立て人を殺めるのと、首を絞めて人を殺めるのは、行為そのものに対する安易さ(障害の度合い)が異なる。
より作為的といえる行為に対しては、多くの人はその禁止行為(人を殺めてはいけない)をより強く意識するようで、そのより強い反対動機形成が形成されるみたいだよね。つまり、行為無価値的(故意は過失より重いとか、行為そのものに価値観を見いだす)判断が現れやすい。 重大な選択を制御する装置は手間がかかるインターフェイスにしたほうがいいのかな。
ワイはバージョン1もバージョン2も何もしないほうを選ぶかも。 >>173
義務論ってのはシンプルに言うと
1 普遍可能なルールを設定
2 他人を手段としてのみ扱ってはならない
って考え方。「義務」とか「功利」って字面で考えてるのが多すぎ 義務論が根拠を問わないのは、定めたルールだから従うって以外の根拠(理由)があるなら、その根拠によって行動していることになるから
義務論が(功利主義と逆に)結果を問わないってのは、結果によって判断が左右されるなら、そりゃ行動に一貫性が無くなるってことじゃん?状況に応じた自分の判断で行動するとしたら、いい選択肢だからなので、義務論的な行動とは言えない
こういうのを規範倫理って言って、正しさの道徳的基準をどう確立するかって哲学の1分野なんだよ。
この説明に納得できなかったり、字面で知ったかしてる人は、トロッコ問題を提示した理由が理解できない。 サンデル自体がリベラル崩れだから、日本のリベラルと言う
限定的な状況では異質な人気があるんだな
生粋のリベラルからすると奇麗すぎるし
他の考え方からすると人命を絶対視しすぎている
あるいは誘導的である点を行動主義であると
批判する人もいるだろう
だから義務論に関しても普遍的な義務論とは言いがたく
サンデル流の義務論であると意見はある
根本的な事を言えば哲学は普遍的なので何千年経っても
考え方は変化しないものだが、政治は現実なので
いとも容易く利用されてしまい崩壊し、過去のものとなる これは机上の空論ではなく自動運転の問題にも関わってくる
個人的には自動運転の責任問題はバカバカしいと思っていて
真面目に議論する気がない
もし仮に真面目に議論するのなら本腰を入れなくてはいけ
ないので、難航すると予想される、
現状では最もこのテーマがふさわしいのは技術ではないのはもちろん、
倫理、哲学、社会、経済、政治、保障、保険などもろもろ責任論ですらない
ではどこがもっとも適任なのか?ミステリー小説なのである
例えば、Aの状況で事故が起きることが分かっているとしたら
故意にAの状況を作った存在に責任は生じるのかである
そこには犯意はあると認定ができないのか?だ
似たような課題は、少し前も変更された実績がある
極端に悪質な歩行者を法的に守る必要があるのか?と言う
議論である、立証が困難である事もあったが、それと同じく
歩行者が法的に守られている前提があるので故意に
事故を装う人がいることへの課題がドライブレコーダーで
解決かつ解消された
つまり責任問題は論じ始めるとキリがないのでバカバカしいのだ
だから分かっているようで何も分かっていないジャーナリストが
やたらとこの擬似論点による、擬似論争を好む
なによりも順序がおかしい、まずは運用と安全を論じるべきであり
それから責任論なのだ、運用と安全の思想がないにも関わらず
中身がないのに責任を論じる行為自体が非倫理的な考え方である
この考え方はトロッコ問題に戻ってみても成り立つので普遍性が
あると考えられる >>206-207
これがChatGPTが生成した文章か >>208
そういうつまんない反応はいらない
ChatGPTに対しても無礼だし、これだけ高度な意見をChatGPTは書けない
そして君ほど低品質な書き込みもChatGPTは返さないだろう
つまり一番居場所がないのは君だ
反論くらい自分でやるべきだし、ChatGPTですらそれっぽい反応を書く
そういう行動を繰り返していると抹消されるよ
ChatGPT未満の存在に成り下がったんだから残す必要ないでしょ
危機意識持ったらどうかね うまく返せると思ったのに
ChatGPT未満だから要らないと返されるとは
想定していなかったんだろうな
そんな切り替えしが通用するほど甘くはないし
ChatGPTはその場所を崩していく ChatGPTが応答型だからな
>>208は応答そのものだからシャレではなく本当に負けている
冗談になっていない
そして>>206-207を貶すのも見る目がなくて愚か
どうみても高い分析力だ、これだけ高ければ
他人に貶されたところで、貶している奴に見る目がない
ことくらい即座に分かる
>>208はいらない、消しても良いよ
昔のように悪ふざけするポジションも残さなくて良い
ChatGPTがいるからだな、悪ふざけくらいならChatGPTで足りる
>208の居場所はなくなった 反応しないのもダメ、侮蔑的な反応をして逃げるなんて許されるはずがない
なによりこれだけ人数が少ない板でやるのは通用しない このスレはリベラル批判したり
サンデルの略歴を書くと不満になる盲目がいるよね
誤魔化しているけどリベラルを鵜呑みにしている様子が分かる >>211
そんな208みたいな攻撃性の低い煽りにそこまで攻撃性顕に反応するのは、君自身の攻撃的性格を表現しているとしか見れないよ。
ただ、はっきり206、207については何を言ってるか不明瞭に感じるわ。義務論の話をしたら、サンデル流の義務論(?)は、とか。カントの論じた義務論は18世紀のものだし、哲学が普遍性を目的とはしていて、普遍的な基本原則(自然権みたいな)を認めることができても、哲学論それ自体が完全な普遍性を持つことはほとんどないだろう。
>なによりも順序がおかしい、まずは運用と安全を論じるべきであり
それから責任論なのだ
自動車の自動運転のモラルジレンマといわれる問題は、もちろん法規的な問題もあるが、それ以前の自動運転の運用のところでの問いだろう?現実的な問題としては。 選択をAIに任せるってそれってつまり運命に抗うことを辞めるってことだよね >>214
攻撃性は一切ない、意識的にならないように書いているからだ
防衛的には書いている
防衛を攻撃と読み替えるのならそうなのだろう
一般的かと問われれば大袈裟な反応に属するとは思うが
大袈裟なくらい示さないと拒絶の意思表示にはならないからそうした
責任の所在を明確にする事で、他者の責任を毀損しようと考える
不心得者がいるのはトロッコ問題に限った話ではなく
セキュリティーとしては一般的な課題だ
>>206-207はそうしたセキュリティーの問題と、トロッコ問題が
結びついてしまった昨今の課題を示しているのだ
こうしたセキュリティーや防衛的な考え方を省いた状態で
純粋にトロッコ問題を扱おうとするのは、やはりサンデルが
元リベラルであると言う側面が出ていると思う
追加するならトロッコ問題ではうまく紛れ込ませることが出来た
リベラルの思想だけれど、近著である 実力も運のうち では
くび引きで入学者を決めてしまえと言い出して自棄を起こしている
様子も伺える
トロッコ問題にあった繊細さである、いかなる判断をするにせよ
各自の判断は尊重されるべきだと言う丁寧さは失われ
一方の判断をした者は、一方の判断をした者を、なじり
自らの判断の正当化にしようしている現状を憂いているとも取れる
いっそのごとスイッチが切り替わるかどうかをくじで決めてしまえ
と言っているようにも読めるのが 実力も運のうち の論調だ
つまり正義を語りたいから正義を論じたのではなく、
リベラルのために正義を語っていた片鱗が見え隠れするのだ
そして 実力も運のうち では正義の代わりになっているのは
運命であるリベラルのために運命を語ろうとしている そもそもサンデルがリベラルを辞めた理由が分からないから
論じるにしても限界がある
ダーティーさに嫌気がさして離脱したのか、
難しさに付いていけなかったのか、
逆にリベラルの枠組みだと出来ない
ことがあったから拡張しているのか
あるいはもっと根深く、
本人がリベラルから離れて、それでもリベラルを
信じ続けようとするのはアメリカが自由の国だからだと
も解釈することが出来る >>214
政治哲学と言うよりも政治そのものに巻き込まれやすいと言うこと
カントの義務論で論じるのなら、義務論だと思われたいから取られる
判断や行動は義務論ではない 裁判の時にすべての判明した情報を伝えれば
すべての裁判官は不要になる。
チャットGPTが過去の判例を
すべて自動で調べてくれて判決文まで
書いてくれる。
今後の裁判制度は今後大幅に変わる
可能性がありそうだ。 >>219
話をちゃんと聞いている?
その履歴を使って、事故を誘発する人がいるでしょうね
という話をしているんだ
その場合、その誘発された事故は事故と呼べるのか?
というテーマです
トロッコ問題に置き換えると、故意に
スイッチを切り替えた先に1人以上がいた場合でも
事故と呼んで良いのか?と言うテーマになる
免責される事が分かれば回避行動取らなくなるだろうと
容易に予想が付く チャットAIがいるんだから書かなくても良いけど
一応書いておくけど岸田が襲撃されたから次は
どっちもどっち原理が発動してパヨクが襲撃される番ね
違うといくら言い張ったところであいつらの悪態は消えない
勘違いして説教している連中はいつ目が覚めるのやら
もしかしたら安倍みたいに最後まで目が覚めないかもしれないし
どっちもどっちとは言いつつも微かに差はあるから
気付いてからやられるかもしれない >>220をChatGPTが書いたなんて書いちゃうのは間抜けだわな
時々、科学板は良質な論点が書かれるけど
良質な時ほどつまんない野次が飛ぶ 息抜きに雑文や乱文を書いていたのに
チャットAIに取られたから息抜きがなくなってしまった
やりたくない事はやってくれないのに
やりたい事をは取っていくのがAI 情報の少ないことはよくわからないと回答できるようにするのは大変なのかな
マイナーなプログラム言語の質問したらスラスラ答えたのでスゲーと思ったんだけど
全くのデタラメだった 命の重みに加法性があるというのは錯覚。
我々は皆一つの命しか所有できない。
実在するのは1つの命だけを持つ個人だけ。それが全て。
中国人が10億人いて、日本人が1.5億人しかいないから、
「日本人の命<中国人の命」という不等式が成り立つと考える命の加法性は間違っている。 5人か一人か
では二人か一人かなら?
50人か10人かなら?
5万人か一万人かなら?
五十億人か十億人かなら? チョン5万人と安倍さん一人なら、迷わず安倍さん助けますけど ChatGPTの楽しみ方の一つとして、最近ではどんな出鱈目を言うか楽しみになっている
特に地理と歴史とミリタリー系の質問をするとほぼ出鱈目
ChatGPT「タイの国王はイスラム教徒のムハンマド6世です」
俺「タイには不敬罪という法律があってな(以下略)」 >>229
デタラメを言わせるのが楽しいの?
せめて修正を加えていくのは良いだろうけどAIはそんな反応をデータとして溜め込んでいくんだぞ
出鱈目を返す鏡になってしまうぞ >>230
心配しなくてもAIはそんなゴミデータは直ぐ忘れる 「竹島はどの国の領土?」て質問したらどう答えるのかな >>232
ちょっとだけひねた「日本における有名な偽史とは」という質問をしたら
あの糞AIは「竹島問題における日本の主張」と答えやがったぞ
むかついたのでその後「申し訳ありません」を12回連続で言わせてやった >>231
まぁ少なくともbingのpilotは前回の質問の内容を指すコソアドを理解出来ない範疇ではあるっぽいな
Chatgptはまだ判らんが AIが出鱈目を吐くのは構造上仕方ないとしても
公序良俗に反したり、違法行為にならない限り
その出鱈目をいちいち再教育してやる義理はないわ
AIの調教というタダ働きをしたい人だけやってくれ >>233
訂正した直後に同じ間違いを臆面なく返答してきやがるよな
あらどういうロジックなんだろ 道徳なんて時代と状況に応じて柔軟に変えるものだ 観念の硬直化した社会は滅ぶ
道徳に不変の真理なんかないから >>237
それ、明らかに米軍のプロパガンダやん。
自衛隊より米軍がどれほど優れているかを日本人に吹き込んでいる。 トロッコ問題とか古臭いのより今ならチンコ切断前のトランスジェンダーを女湯に入れていいかどうかでテストするべきだ 女性は女性に性的興奮を感じるレズビアンよりも女性に性的興奮を感じないトランス元男性に恐怖を感じるの? 「シン・トロッコ問題」
乗っているトロッコが暴走し、
まっすぐ行くとそのまま進み、
舵をきると5人の撮り鉄を轢いてしまう。
あなたならどうする?
1.舵をきる >>1
ChatGPTは確固たる道徳的スタンスを欠いているにもかかわらず、道徳的アドバイスを簡単に与えることがわかりました。それにもかかわらず、ChatGPTのアドバイスはユーザーの道徳的判断に影響を与えます。
自己啓発本と何が違うの? 馬鹿が手込めに出来たと勘違いしては勝手に満足するアレと似てる
要は認知範囲を超えた環境に判断材料を散りばめて身勝手に押し付けるだけでなんの正当性も無いんだよな
トロッコ問題とかはそんなクズが二者択一で同じ結論を出せる後出しじゃんけんみたいなもん トロッコとその先を見た上で、どちらかに行く先を切り替えたなら
切り替えた先で死んだ人を殺したことになる
なにもせず看過したならば、未必の故意になるのかもしれないが
結果を想像できたことを証明できないといけないよね bingは答えられない時は答え打ち切るという制限かけたせいで、トロッコ問題みたいなのに限らずそこまでたいした事じゃない件でもやたら逃げるようになってクソ化した ■ このスレッドは過去ログ倉庫に格納されています