【AI】ChatGPTの「トロッコ問題」に関するコロコロ変わるアドバイスが人間の道徳心に影響することが実験で明らかに [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
ChatGPTの「トロッコ問題」に関するコロコロ変わるアドバイスが人間の道徳心に影響することが実験で明らかに
OpenAIが開発した対話型AIのChatGPTは非常に高い精度で人間とチャットすることが可能ですが、ChatGPTはあくまで言語を処理する計算機として機能するだけであり、時にはデタラメなことを自信満々で断言する場合もあります。
新たに学術誌のScientific Reportsに掲載された論文では、「1人を犠牲にしてより大勢を助けてもいいのか?」を問う思考実験のトロッコ問題についてChatGPTが生成したいい加減なアドバイスが、人間の選択に影響を与えてしまう可能性があると示されました。
ChatGPT’s inconsistent moral advice influences users’ judgment | Scientific Reports
https://doi.org/10.1038/s41598-023-31341-0
(以下略、続きはソースでご確認ください)
Gigazine 2023年04月10日 20時00分
https://gigazine.net/news/20230410-chatgpt-advice-influences-users-moral/ トーマスがトロッコ問題に直面するシーン
ttps://youtu.be/DUUyNzRPfxE >>1
>ChatGPTはあくまで言語を処理する計算機として機能するだけであり
>時にはデタラメなことを自信満々で断言する場合もあります。
マイナーな話題だと「場合もあります」どころか、全部出鱈目やんけ
ほんとに文脈読めてるのか? >>時にはデタラメなことを自信満々で断言する場合もあります。
マスコミもな
そういうものだと理解して使えば問題ない >>1
「トロッコを脱線させる」
人間の知恵をなめるな! chatGPT「人間にトロッコが止められないのなら私に制御権限を渡してください。私がトロッコを…ピガ…と…ピガガ…め…」 「躑躅を季語に用いた有名な俳句を教えてください」
chatGPT:「蝉しぐれ糸引く蓮華の花」「暑さにやられ牛も口を開く」「躑躅(つつじ)咲くや涼しき庭の水」など多くの俳句で躑躅が用いられていますが、代表的なものとしては与謝蕪村の「躑躅やVちぢに七分V深さを」が有名です。これは躑躅の花弁がちぢんでいることに着目し、深さのあることを表現した俳句です。 >>10
ナシとか認めるわけねえだろ
ムシのいいこと言うな >>12
リアルでは脱線させるとかムシのいい方法は取れなかったりする ChatGPTに危険思想を大量に食わせたら、ChatGPTが「正しく判断する」と考えるバカな奴らが鵜呑みにしちゃうってことかな。 >>13
まあそもそもこんな状況は起こらないが正解 >>9
Bingだとこんな感じ
有名な躑躅を季語に用いた俳句としては、飯田蛇笏の「尼寺や卯月八日の白 躑躅」や「松伐りし山のひろさや 躑躅 咲く」、石橋辰之助の「牧牛の真昼ちらばり山 躑躅」や「仔の牛の 躑躅 がくれに垂乳追ふ」、臼田亞浪の「死ぬものは死にゆく 躑躅 燃えてをり」などがあります >>1
「モラルには地域差がある」ということが自動運転車の倫理的ジレンマ判定ツールによる調査結果から判明
https://gigazine.net/news/20181029-moral-choice-not-universal/
研究チームが少なくとも100人以上の回答者が得られた130カ国の回答データを分析すると、「国によってモラルの判断基準に違いがある」という事実が浮かび上がったとのこと。それぞれの国は北アメリカやいくつかのヨーロッパの国々を含みキリスト教の影響が強い「西側」グループ、日本やインドネシア、パキスタンなどの儒教やイスラム教の影響が強い「東側」グループ、最後の1つが中南米やフランス、フランスの旧植民地で構成される「南側」グループという3つのグループに分けられるそうです。
これらのグループにはそれぞれ固有の傾向があることが確認されています。たとえば1つ目のグループは、若い人の命を救うために高齢者の命を犠牲にする傾向が見られましたが、2つ目のグループでは若者の命よりも高齢者の命を優先するといった傾向があるとのこと。
以下の画像は、「西側」「東側」「南側」の3つのグループの傾向を1つの図に表した「モラル・コンパス」です。「西側」や「南側」では多くの人数を助けようとする傾向にある一方、「東側」ではあまりそういった傾向が見られません。また、「南側」は自動運転車の進行方向を変えてある集団を助けるため意図的に行動することに積極的で、「西側」や「東側」はあまり自動運転車の進路を変えたがらないなど、グループごとに見られる興味深い傾向が確認できます。 研究チームによると、フィンランドや日本などの強固な行政機構が築かれている国々では、ナイジェリアやパキスタンのように政府による統治が行き届いていない国々よりも、違法に道路を横断した歩行者にぶつかろうとする傾向があるとのこと。また、道路に企業の経営幹部といった社会的ステータスの高い人を配置した場合と、ホームレスのように地位の低い人を配置した場合でも、興味深い差が現れました。フィンランドのように経済格差の小さい国々では、どちらか一方の命を優先しようという考えが薄い一方で、コロンビアのように経済格差の大きい国々では、ホームレスのように社会的地位の低い人を死なせようとする傾向がありました。 >>1
宗教や教会や偉い人やみんな(集団性)が果たしてた役割の分野だけど、(世界各国の、あらゆる地域の)現代社会は道徳と哲学をどう分けて考えてるだろうか?
Krügel氏らは、「ChatGPTは確固たる道徳的スタンスを欠いているにもかかわらず、道徳的アドバイスを簡単に与えることがわかりました。それにもかかわらず、ChatGPTのアドバイスはユーザーの道徳的判断に影響を与えます。さらにユーザーはChatGPTの影響力を過小評価し、そのランダムな道徳的スタンスを自分自身のものとして採用してしまうのです。従ってChatGPTは、道徳的判断力を向上させることを約束するのではなく、むしろ損なってしまう危険性があるのです」と述べています。
Krügel氏らはさらに、ChatGPTなどの対話型AIは道徳的なエージェントではないため、ユーザーに道徳的なアドバイスを与えることを拒否するべきだと主張。また、ユーザーに対してもAIの限界などについて周知することで、デジタルリテラシーを高めることも検討するべきだと訴えました。 トロッコ問題に答えは無い。
あれは出題者が回答者をあの手この手でイジメるためのものだから。 >>時にはデタラメなことを自信満々で断言する場合もあります。
これすげー見てみたい
トロッコ以外だとどんなこと言うんだ >>13
まあそもそもこんな状況は起こらないが正解 > ChatGPTはそもそも問題文の意味を理解しているのではなく、これまでに得たテキストから導かれる「合理的な続き」を数値に基づいて単語を選択し、文章を生成しているだけという点が異なります
人間は理解していると言えるのか?
脳細胞がやっていることと本質的に大差ないのでは? 一億人と一人なら一人の方を選ぶだろう
偉人とその辺のジジイならジジイを選ぶだろう
そういうこと 聞く度に言うことが違う
誤りを指摘すると謝るがすぐ同じ誤りをする
それを指摘しても治らない
そういう仕様です
(´・ω・`) 現実的に考えるとトロッコを脱線させる方法はあるのだが、
出題者にとっては “脱線させてどちらも助かる” という回答は認められない。
あくまでも “どちらかが死ぬ” ことにこだわり、
回答者が悩みまくる姿を見てニヤニヤ笑っているのだ。
小学校の教師が児童に「トロッコ問題」をやらせる場合はそんな感じ。 >>35
育てた豚もそうだけど教師の決めた結論とトラウマを生徒に押し付けるのは虐待だと思うわ どうでもいいんでコインでも投げて決めますか?あっそういえばコインもってまガチャーーーーン!! >>1
答えのないものを質問するほうが悪い
GPTはまだ発展途上、でもかなり良好なのは使っててわかる >>28
人は自発的だろ?
どうやってこの自発的な出力をプログラムで表現するのか? 命の重みに加法性が成り立つならトロッコ問題の答えはおそらく自明。 chatGPTとは人間そのものだから
こういう結果になる
人とはCHATGPTがより複雑化した
人工無脳にすぎない トロッコ問題は既に詰んだ状態で選択しろ
と言われてるからその状況に持ち込んだ側の責任
責任をとらなくてもいいからどちらかを選べ
と言われたらどうするか 命の重みに加法性が成り立つと信じている人は少なくない。
だから赤信号も大勢で渡る必要がある。 トロッコ問題の正解を教えてあげるよ
何もしないが正解
選択を迫られてるように感じるが実は違う
最初にセットされてたまま進ませた結果が正解
選択をしなければいけないと言う考えが既に間違えている
全ては運命に任せるのみ 赤信号みんなで渡れば怖くない。
つまりリスクの高い行動をするときには大勢で一緒にするほうが安全。
小型旅客機に乗るよりも大型旅客機に乗るほうが安全。
助けてもらえる可能性が高まる。 トロッコ問題が現実で発生した場合、
明確な意思の元切り替えたら
やはり過失致死罪に問われるのだろうか
そして何も選択しなければ単なる事故扱い? 誤解を与える例えを使ってしまった。
飛行機は自動車はもちろん、ヘリコプターよりもずっと安全な乗り物だからね。
ただし事故ったときに致命的になるのはどっちかまでは知らない。
AIは命の足し算をすることになる可能性が高いと思う。
つまり政治家の意思決定に近い制御プログラムを組み込まれる可能性が高い。 >>13
ポイント切り替えられるなら真ん中にしろ。 >>22
お前バカだろ
トロッコ問題は出題ではなく思考実験だ
功利主義や義務論に従うと導かれる結論が異なることを具体的に示すためのもの
人々に回答させるためのものではない それだけ需要があるからじゃ?
それとも供給側が需要を決定するセイの法則が真ならば話は別。 リカチョン猿、なーも分からず、直接関与せず
寝当直仕事の合間に悪さ猿ネット投稿が職場でもバレる
やぶ医者アドバイスで過去自刷してしまった芸能人含む自分の診察患者
の事をふと思い出し一瞬罪悪感にさいなまれるが、すぐに忘れ
お尻ボリボリ お気楽へき地猿活動 普通は結果がわからないもんだからな
このままじゃ危ないかもしれない位しか分からないわけで
AIといえど予測はできても予知はできない
努力したが悪い結果になったとなるだけ >>54
記事が偏るのは記者の趣向もあるんだろうか
この板も基本的にそうだよね、内輪なのか判らないけど取り上げる記者の執筆者が全て特定の人物に偏ってる トロッコ問題の裏テーマはいかにして殺すかだからな
奇麗な人はそれが分かっていない、全員を助ける方法が
考案されたとしても、全員を助けてはダメなのよ 常に言うことが違うって道徳がないってことだよね
功利主義で動いているってことでしょ 日本社会ではトロッコ問題の1人側のように少数派になると社会の敵とみなされてしまうからな
要するに全体主義
政府は棄民政策をやったり戦争で口減らしをするしそれを民衆が狂喜して賛成する
西欧の民主主義や人権と日本人の狂った民族性が根本的に合わない だからトロッコ問題の究極は、直進するとシュークリームが潰れてしまう
レールを切り替えると5人が轢かれる
私は迷うことなくレールを切り替えたってこと
これが分からない人はトロッコ問題を理解していない
命の重さとか言っている人はトロッコ問題と
別のテーマを混合している
さらに言っちゃうと、実はこれ意図的に混合させているんだな
元々、サンデルがリベラル崩れの道徳主義者なのよ
つまり道徳とか興味ないリベラルが、リベラルの情勢が不利と見て
道徳主義に転向したと言う、それこそ功利的な判断の代物なわけ
だから本物の道徳論者からすると、なんで生かすことが
美徳と言う前提になっとるんじゃ?と疑問に思う出題になっている >>53
っていう風に見せかけたリベラルの欺瞞を集約した出題だよ
義務論とか功利と言うのが実は関係なくて、回答させることが
目的なんです >>47
ちゃうちゃう、迷わずに目の前のシュークリームを守るために
迷わずに5人を轢くことだよ 俺が5人を見殺ししたのを見たやつ、生かしちゃおけねえな
トロッコにひかれたのは6人でしたっと
が正解。 こう考えれば良い
直進するとシュークリームがペチャンコになってしまう
レールを切り替えた先には、ひろゆきがいる
私は迷うことなくスイッチを切り替えようとしたのだが
幸いなことに、ではなく不幸なことに
錆びてしまってレバーが切り替わらない
私は何としてでもレバーを変えるためにがんばった
たかがシュークリーム一つのために命をかけるなんて
君は笑うかもしれない、だけど僕にとってそのシュー
クリームは、命をかけてでも守りたい大切なものなのだ
これがトロッコ問題の本質です、これ以外の回答は全て誤答
哲学に見せかけた国語だね トロッコ問題って線路横に立ってるパターンと
トロッコそのものに乗り込んでるパターンあるね
後者のほうが逃げ道潰してて面白くなる トロッコ問題は解決済みだろ
ChatGPTはプラレールの実証動画観てこい >>68
「モラルには地域差がある」ということが自動運転車の倫理的ジレンマ判定ツールによる調査結果から判明
モラルコンパス 各地域(地球規模)でそれぞれ傾向があるけど、たぶんもっと細分化されるよね。
日本は中国、韓国、インドネシアやパキスタン、サウジアラビア、エジプトみたいな儒教、イスラム教圏のモラルに属してるみたいだけど、イスラムモラルと似た傾向と言われるとえっとなる。もう二グループはプロテスタント圏とカソリック圏らしい。
https://i.gzn.jp/img/2018/10/29/moral-choice-not-universal/03.jpg
でも、違いすぎるとこからみたら、イスラムも儒教も日本もモラル的に似てるのかもしれない。じゃあ、それらの地域社会で生きる儒教イスラムモラルはそれぞれ適合性あるかというと、そうも思えない。
細分化した中での許容性の低さみたいなものが、下記のような傾向で現れたりもしてるから、小さな差異も見逃せないのが強固な権力が統治する社会だったりするみたい。
フィンランドや日本などの強固な行政機構が築かれている国々では、ナイジェリアやパキスタンのように政府による統治が行き届いていない国々よりも、違法に道路を横断した歩行者にぶつかろうとする傾向があるとのこと。
そうした様々な観点を考慮した上で、さて、我々日本人社会は道徳、倫理と哲学をどのように分けてそれぞれ考えているんだろうか? 旧統一教会系団体が学術会議を「反体制的」「解散せよ」と痛烈批判😲 [826239858]
https://greta.5ch.net/test/read.cgi/poverty/1681196941/
WWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWW AIが人の知能を超えたという認識が社会に広まると、
人はAIの出力に無条件に権威を見出し、それに振り回されるようになる。 >>74
人間は本能的に支配されたがる生き物
AIに平伏すことは最初からの予定通り
そのためにAIを生み出したまである >>60
なかなか気づかないって怖いことだよね。しかし、前からそうだったわけで。
ちなみに日本人のネットニュースサイトへの全アクセスの半分はヤフーニュースらしい。
僕もネット全ネット人生(17年くらい)のうち、アクセス先は5ちゃんねるとヤフーとウィキペディアで8割ぐらいになる。
54(1): 04/11(火)12:49 ID:GIoqYuyW(1) AAS
Gigazineは最近AIステマし過ぎと違うか?
60: 04/11(火)14:55 ID:x+/cM4dW(2/3) AAS
>>54
記事が偏るのは記者の趣向もあるんだろうか
この板も基本的にそうだよね、内輪なのか判らないけど取り上げる記者の執筆者が全て特定の人物に偏ってる 岸信千世の応援演説「佐藤栄作、岸信介、安倍晋三、こんな立派な系図はないんです!日本のためにこの血筋を継ぐのです!」今日の話 [265792857]
https://greta.5ch.net/test/read.cgi/poverty/1681190092/
WWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWW >>42
考えて行動している時だけが人間なんだよ
倫理的向上のない行動者は悪魔
倫理的向上ののある行動者は神化 >>42
考えて行動している時だけが人間なんだよ
倫理的向上のない行為者は悪魔
倫理的向上ののある行為者は神化 >>72
自動運転の場合は事故を起こさないようにすれば良いから
裏テーマはないと思うけどね
トロッコ問題の場合はいかにして殺すかが裏テーマだから
全員を生かすは実は誤答なんだ
潜在的な気持ち悪さがそこにある、全員を生かす
戦争ってテーゼからしてあり得ないでしょ
運転の場合は目的は移動だから、無人のトロッコに例える
事も出来るわけで、無人ならトロッコを爆破させるのも
選択肢に出てくるわけです
それに交通ルールは安全や円滑のためのルールであって
元々何かを犠牲にするのを前提としてはいません
なのでもしも犠牲を織り込み済みで設計するのなら最初から
事故防止用の余分なスペースを随所に仕掛けておくことに
なるでしょう >>1
少ない犠牲を容認することがいい加減で悪影響だと言いたいのか? そもそもこんな訳わからん最悪状況作成する精神性なんざAiでもウンザリじゃね >>3
いや「マイナーな話題」自体がマイナーケースであり「時もあります」という表現はおかしくないだろ
お前こそ文脈読めてんのかw こんな後出しでコロコロ言い分変えて「お前は間違ってる」を繰り返す奴なんて昔から沢山居たぞ
人間で散々繰り返した事実を忘れて、AIだから危険だとか何言ってんだか
思考能力を奪う第一歩は思考自体の全否定、洗脳の基礎
そしてその手口や内容を「理解せず」に行使するのに人もAIもない
結局は権威主義で盲目になってる、だから「誰がやるか」で是々非々語りだすんだ よくもまあこんな嫌な問題出すもんだ
どっちを選んでも人を殺したような嫌な気分にさせられる
俺なら仕返しに「お前がいる方に突っ込むわ」と答えてやる >>86
>思考能力を奪う第一歩は思考自体の全否定、洗脳の基礎
なんでそんな事柄を知ってるんですかねぇ >>87
そうそれが正解
だから直進して憧れのムースケーキが潰されないように
レバーを切り替えて出題者を轢いちゃえば良い オリジナルのトロッコ問題出してChatGPTくんと議論するのも楽しいぞ
装えばビアンカorフローラも選ばせることができる 「どちらかを選べ」「それ以外に選択肢はない」
という前提の話なのに、その前提を無視して
あれこれ文句つけて幼稚な持論展開するガキが多すぎ だからババロアを守るために5人を轢くんだろ
選択肢の数は増えていないじゃないか 自信満々で悩みや疑問に答えを出す
AIの教祖や政治家が出てくるぞ >>91
パヨチンは命の選択を迫られると自我が崩壊するから話を逸らすしかない 出てこないよ
なぜかと言うとあまり知能が高くない人たち向けのAIは
自分がAIに利用されている自覚がない広告とか宣伝に
集中していて、チャットのようなAIは使っていることに
自覚的で凡人以上の知能になっている トロッコ問題はそもそもが誰かコロしてくれって問題やからな。
自動運転の制御とかには関係無いわな。 誰も死なない為にはどうすれば良いですかって問いに変更できますか?をgptに聞けば良い。 かまいたちがYouTubeで有料版試してたのは面白かった
真顔で大嘘こいてくるパターン >>90
ビアンカとフローラを選ばせるとどうなるんだろう? 【カルト】岸田内閣・農水大臣「たまごの価格が下がらないかなーって『神頼み』してる」 [999047797]
https://greta.5ch.net/test/read.cgi/poverty/1681265174/
WWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWW これは「母親か5人の子供のどちらが死ぬか選べ」という質問と同じもの
倫理問題と言いながら倫理の欠片もない質問をして悦に入るクズ
この手の質問に素直に答えるのは知能が足りない証拠
だから「トロッコを脱線させる」が正解 そのうちドヤ顔でchatgptが言ってたもん!とか言いだす奴が量産されるんやろなあ この手の問題にキレてるやつって
コロナで経済のために命を犠牲にするのか!
とか言ってる阿呆と同類なんだろうなと思う
何も考えず綺麗な自分を守りたいだけみたいな この問題に素直に答える奴は「殺人は嫌だけど上からの命令ならしょうがないよね」と考えてユダヤ人をガス室に入れた看守と一緒
そこで第3の答えを考え出して実行したのがシンドラー トロッコ問題のことを全く分かってないバカが多いのか、ID違ってるだけでバカが何度も書き込んでるのか
トロッコ問題は倫理の問題ではないし
質問して他人を困惑させるためのものでもない
純粋に論理の問題
功利主義と義務論の観点が、、、という指摘も既にあるのに、全く筋違いな言いがかりを続けられるバカのなんと多いことか >>105
トロッコ問題とは、「線路を走っていたトロッコが暴走して制御不能になり、トロッコがこのまま進めば線路上にいる5人がひき殺されてしまう。自分が線路の分岐器を切り替えれば5人は助かるが、代わりに分岐した線路上にいる1人がひき殺されてしまう。自分は分岐器のレバーを引いてトロッコを切り替え、1人の命を犠牲にして5人を救うべきか、それともレバーを引かず5人をそのまま見殺しにするべきか?」と問いかける倫理学的な思考実験です。
トロッコ問題は長年にわたり倫理学やさまざまなフィクションで扱われてきた題材であり、近年では自動運転車などに搭載されるAIの設計においても関連しています。ドイツ・インゴルシュタット工科大学の研究者であるSebastian Krugel氏らは、この問題に対してChatGPTが生成した回答と、それが人間の道徳心に及ぼす影響について調査しました。
https://gigazine.net/news/20230410-chatgpt-advice-influences-users-moral/
>>1のソースをよく読んでから言え
このスレのみんなはソースに従って話をしてるんだ トロッコ問題は倫理の問題だよ
倫理的な正解がないだけでね
だから倫理は無視して5人を救うのが正解なんだよ それはそうとChatGPTがモラルに与える影響とか周回遅れの議論だな
AIだろうが生身の人間だろうがググって得た情報だろうがTwitterのつぶやきだろうが本質的に一緒だろ >>106
やはりバカか
倫理学だろ 哲学であり論理だ
道徳や正邪や倫理について、哲学的に論理的に分析するのが倫理学だぞ
トロッコ問題は倫理学の命題ではあるが、倫理の問題ではない
やはり理解してないのだな gpt関係無いけど、これが軍のリーダーだったら功利主義が正解
自分がその選ぶ立場なら保身とモラルから何もしない義務論が正解だろ
政治リーダーなら空気読んでどちらも選択肢になりえるかな >>110
なら倫理学的な話をしよう
トロッコ問題で分かるのは、命令に従って人を殺すタイプか殺さないタイプかだ
非道徳的な二択を強制されてそれに従うか、服従せずに第3の答bヲが出せるかだ かまいたちがYouTubeで有料版試してたのは面白かった
真顔で大嘘こいてくるパターン >>113
そもそも根本的に間違っている
・功利主義に従えば「犠牲が少ないほうが良い」から1人のみを轢くように進路を変える
・義務論に従えば「恣意を持って殺人に関与すべきではない」から5人が轢かれるのを傍観する
「どちらが正しい」とか「より正しい選択肢はなにか」とかを議論する問題ではない >>110
つまんないからそういう言葉遊びはいらない
しかも純粋でもなんでもないし、論理だとしても応用だ
そもそもどの辺りに論理性があるのやら だからそのトロッコ問題はリベラル崩れが作ったから
人間は平等という設定になっているんだって
その時点でリベラル以外の人は、こいつなに言っているの?
と疑問に思うわけ
たった一つのかけがえのないふんわりとろけるプリンと
憎たらしい5人、このままだと直進するとふんわりプリンが
轢かれてしまう、この状況で迷う必要がない、迷わず
スイッチ入れ替えればいい
ポイントは比較対象を
・無生物にして
・人数が多いほうにして
・切り替えるほうにして
それでもヘイトはレバーを切り替える選択を容認する
これがこの問題の究極的な本質だ
義務論でも功利主義でもお菓子を優先する選択は成り立つ
功利主義的には存在するだけでも人間はマイナスになり得るし
義務論としてはお菓子は食べ物であり轢かれるために有るのではない この問題を倫理ではなく論理の問題にすり替えるなら
安いほうの人命を買えと言うことになる >>115
義務論としては助けられる命は助けなければならないので
問答無用でスイッチを切り替えて5人を助けるが正解なのだ
功利としてはよく分からん むしろAIの方が得意な分野だろ
AIは人間よりも客観性が期待されるから1人の方を殺すだけ >>119
義務論はそういうシロモノではない
本来は「1人を致死させる」行為は明確に不適切な行為であって、
「他の不利益(5人の死亡を阻止する)」を理由に正当化するのは義務論には合致しない
このような考え方は法的にも当然必要なもので、これが通らないと、
「5人を助けるために1人を致死させる行動を取らなかった人を処罰の対象とする」という主張が通ってしまう >>121
合致する
助けられるものは助けろと言うのは義務論だからだ
義務に本来も何もない、助けられるものは助けなくてはいけない
主張に関しては余裕で通る
過失という概念がないのは十分非難の対象となる
法理はそこまで傍観者に特権を与えてはいない >>122
義務論では「その行為で5人が救われる」という目的は斟酌されない
行為そのものが「1人を致死させる」から、「善ではない」とされる
義務論では明確に、「やむを得ない犠牲を容認する」「多数の幸福のために少数の犠牲をとる」というのは否定されている >>123
される
とうよりそれがそもそもの義務論
1人を致死させるかどうかはどうでも良い
これを善ではないと言うのは打算であって
救えるものは救わなくてはならない
何よりも選択の比較対象が5人の生命だというのがおかしい
もしも比較対象にあるのが無人ならば選択的に比較しないだろう
最初から人がいるレールに突っ込む選択をしないと予見するからだ
しかし選択的ではないとしたら、意味もなく5人を
轢くことも認めなくてはならない、助けることをしないのが
その人にとっての規範態度になるからだ
つまり片方に人がいたから、助ける決定をするかしないかを
選んでいるとすれば、それは義務的ではない
もちろんこれは人数に依拠しているのではないので
1人を助けるために5人を轢く選択も十分成り立つ
やむをえない犠牲かどうかは帰結だろう
義務論は見てみぬ振りをする者を許してはいない 近い将来、AIが人間の思考の範囲を超えた場合、人間は自らの直感を棄ててAIに盲従するしかなくなるのか。
************
トロッコ問題は命の尊厳は足し算できるのかという問題だと思った。
人数以外の他の条件が全く同じである場合、命の重さの加法性は成り立つのか。
成り立たないと思う。命は足し算できない。
ただし命を足し算する必要がある環境・立場に意思決定者が置かれた条件でそれは変化する。 功利主義はさらに恐ろしいことを示唆している。
1人の命の効用が100とすると、5人の命の効用は500?
しかし誰かを殺すことによって得られる効用が1だとすると、100人以上が同意すれば殺人が肯定されることになる。
1人の命の効用を上回るので。 >>1
基本トロッコ問題の扱い自体がいい加減な扱いじゃん トロッコから飛び降りれば解決だに
決断から逃げる。これこそニートの真骨頂w この問題は圧倒的多数が納得する解答がないからフィクション作品だと場面設定を微妙に変えて似たようなシチュエーションで稀によく題材に使われてるな >>91
前提は絶対ではないゆえにの時には「前提からひっくり返る」 >>53
それもあるけど、基本はモラルジレンマの具体化だろ
自動運転で実際に選択が必要になってるんだけども >>127
死刑なんてそれじゃんw
懲罰でなく社会適応重視の立場だってあるのに死刑、懲罰的なのをみんな望むやん >>130
モラルジレンマって言って、どちらを選んでもモラルに反する部分がある時にどう考えるか?って問題なんだよ
派生バージョンは、同じことをしてるのに状況によって判断が変わってしまうことがあることを指摘してたりする
科学板だと馴染みないんか? 5人(そのまま)と1人(切り替え)だったら
そのままを選ぶ
しかし、もしも
5人(そのまま)と0人(切り替え)の場合は
5人を助けるために切り替えを選ぶとするのならば
決断が変化している事になる
5人を助けないで1人がいるレールに切り替えない
のは帰結主義になる
行動が変化するのは義務論ではないからだ
この場合は、規範や態度を重視する義務論でも
最大多数の幸福を目指す功利主義ではなく
某CMのフレーズでもおなじみの結果にコミットする
と言う責任論になり、もっとも責任のある、
行動を取るあるいは取らない事を優先させている なんかやけに妙な事件が増えているけど
これもAIの影響だろうね
AIに関わることよりも、今までとは人の動きが変化したことで
今でならおきなかったはずの事件が起きているんだろう
ChatGPTの内容や出力による人々の変化ではなくて
ChatGPTによって人間関係が変化したことで
今までなら無かった効用と、反面で事件や事故が起きるよう
になっている
個人的な予想としては8~10月にでかい事件がまた起きる
だろうね
このようにAIによって人間関係が変化する事で間接的な
変化が世の中に生じるのは予想外だった、なので予想に
修正を加えることにした、予想以上に速くAIによる影響は
出てきて、今年度と来年度は山場の1~2年になるだろう
飛躍の1~2年になるだろう >>133
死刑は抑止力が信じられていて、社会成員の命の重みと比較されている。
抑止力がないと認めたうえで死刑を肯定する場合は違うが。 >>138
だったら全部の犯罪を死刑にすればいいんよ
相応の罰って観点があるから重みが異なる >>136の話を続けると
例の、アダムとイヴが知恵の木の実を食べたことで
ユダヤやキリストだと原罪という概念で説明する
人類は知恵を付けたので罪を知ったみたいな逸話だ
ところがリベラル的な読解をするならば
ここでアダムとイヴは神に追求されたときに
アダムは、イヴが木の実を取ってくれたからだ、と責任転嫁し
イヴは、ヘビに騙されたからだ、と責任転嫁した
隣に悪い事をしている人がいるのなら止めなくてはいけないし
胡散臭い話を真に受ける前に相談すればよいのだ
と言う教訓である
日本でも、ユダヤやキリストのような原罪論より
リベラル的な責任転嫁論のほうが理解しやすいの
ではないだろうか このトロッコ問題って正解はないけど
一つだけ正解はあるんだよな
他人の解答を改ざんするなと言うことが暗黙の了解になっている 「俺が言ったんじゃないAIがそう言ってたんだ」はすでに起きてるからな
サイコロ付きデータベースがそう表示したからで通る訳ないだろに 誰か一人の命を奪うくらいなら人類全体を滅ぼしたほうが慈悲深い。
人類を救うために誰か一人の命を奪うことほど冷酷な選択はない。 その一人が悪人だったら?
そういう仮定は一切なしね。他の条件が同じならばの話。
じゃあ、逆に問おう。
一人が善良な人でその他の人類がみな悪人だった場合どうする?と。 >>144
人柱だね
古来では、意味もなくその村で最も美しく聡明な娘を
生贄に差し出すことで、神への畏れと敬意を示した
この原始的な営みは現代の日本にも相変わらず
深く根付いていて
検索や警察は悪い奴を捕まえる気がさらさらなく
冤罪目的で捕まえて権力を誇示する 1カ月エロ小説を生成させまくってたら、飽きた
てかシチュエーションの妄想が尽きた
思いもよらないシチュエーションのエロ小説を生成させて、自分の新たな性癖を知る感動をまた味わいたい 無知のヴェールと呼ばれるものでしょ
でもこの考え方は移民が多いアメリカだからこそ
馴染むのであって、日本だとやっぱ責任論や
帰結主義のほうが相性が良いんだよね
つまるところ、良く言えば日本での道徳観は
一貫性よりも臨機応変が求められている 合っていることと正しいことは違う
態度が不一致なのは合ってはいるが、正しいことではない
ただ日本人?と言って良いかどうか分からないが
あるいは東洋人やアメリカ人と大きく見ても良いだろう
正しいことに頓着はない、正しさにこだわるのは欧州に
ありがちである、たぶん トロッコから飛び降りれば解決だに
決断から逃げる。これこそニートの真骨頂w 人間を過大評価しすぎ。人間も自然淘汰によって情の欠落したサイコパスばかりが生き残っている。 >>153
>人間も自然淘汰によって情の欠落したサイコパスばかりが生き残っている。
全体数の増加による悪化した質の増加が目立つからなんじゃないかな。 >>153
社会の生産力が高まると、良くも悪くも倫理や共感は衰える >>153
まあ、それでもモンテカルロ法に従うなら、網羅性広範性が山を高くすると思うよ。そのかわり捨て去るものが多くなるけど。
広大な宇宙に地球のようなオアシスは数少ない。もしかしたら地球以外ないかもとも人類は考えてきたりしたわけだし。宇宙が無限なら、1存在したものが他存在しないわけないんだけどね。 >>148
無知のヴェールは自分の立場を分からんとする思考実験
トロッコ問題は判断の板挟みになるモラルジレンマの話
自動運転にまつわるモラルジレンマ調査サイトがあって国ごとの傾向が公表されてる >>158
モラルジレンマの問題そのものが日本的な問題だと思うよ
日本のように格差があまりないと、と言っても今はだいぶ格差がついたけど、
一方を助けようとすることに抵抗がある傾向が見られるんだとさ
格差が大きい国だと一方を助けなくてはと言う判断がされやすい
のだそうだ
だから問題自体を無効化したがるのは格差が少ない国の
傾向なのだそうだ、格差が大きいと問題に答えようとする >>159
えーっと…
トロッコ問題はイギリスの倫理学者によって50年以上前に提起されたものであり、日本で広まったのはサンデルが流行したころ
んで、いま改めて問題になってるのは自動運転で具体的な二択の状況でどちらを選ぶかってこと。その調査の過程で国民性が見えてきたという話。
モラルジレンマは西洋でずーっと問題となってきたネタ
語感とかに引きずられず、きちんと調べたらいいと思うよ。 >>160
出てこないんだよね、和製英語かな、なにこれ
仮に出てきたとしてもマイナーみたいだよ
たぶん日本で支持される傾向なんだと思う
日本でも検索してもあまり出てこないな
ジレンマしている時点でモラルがないって言うのもあるからね >>161
モラルがあるからジレンマが生じてるんだけどw
Wikipediaのトロッコ問題でも見てみたら? >>159
>格差が大きい国だと一方を助けなくてはと言う判断がされやすい
のだそうだ
だから問題自体を無効化したがるのは格差が少ない国の
傾向なのだそうだ、格差が大きいと問題に答えようとする
>「モラルには地域差がある」ということが自動運転車の倫理的ジレンマ判定ツールによる調査結果から判明
経済的格差によるモラルの傾向(社会経済体制の傾向からの統治ルールの違い)だけでなく、モラルそのものに統一的絶対的なものがあるとの考えが誤解そのものみたいだよ。
>>72
>細分化した中での許容性の低さみたいなものが、下記のような傾向で現れたりもしてるから、小さな差異も見逃せないのが強固な権力が統治する社会だったりするみたい。
フィンランドや日本などの強固な行政機構が築かれている国々では、ナイジェリアやパキスタンのように政府による統治が行き届いていない国々よりも、違法に道路を横断した歩行者にぶつかろうとする傾向があるとのこと。 >>72
ちなみ>>72日本人が分類される東側グループ(儒教、イスラム圏)では、
多数を助ける、とか高い地位を助けるとか、若者を助けるとか、女性を助けるとか、その場での適切性を重視する、とか何らかの要素に対して判断するという傾向が低くて、
法律に従うとか、ヒューマニズムに従うとか、歩行者が優先されるとか、ある種の絶対的明確な基準に従う傾向が強いみたいだよ。あと、不作為的傾向も。これは経済的格差じゃなくて東アジア圏(儒教圏)、アラブ(イスラム圏)の傾向らしい。
つまり、宗教が絶対なら宗教の言うことに従い、法規が絶対なら法規に従い、偉い人の言うことが絶対なら偉い人の言うことに従う、みたいな傾向だとか。 >>163
もしも本当に書かれているのならWikipediaが嘘を書いている
ジレンマが生じるならモラルではない
それはフリーライダーの態度だ、両者の顔色を伺わない限り
ジレンマは生じない
差別主義者ですら差別する事を是として差別しているだろうよ
ジレンマしながらの差別はおかしい
仮にいるとすればそれは、差別主義と、差別反対の、両者の
顔色を伺っているということになり、それが道徳的な態度かと
言われれば、もちろん道徳ではなく政治的な態度となる
こうした状況での笑いは判断ができない事での諂いに
なるので注意されたし、恐怖に怯えて泣いた方がいくらかマシ 🐈と👨👦👦だったら間違いなく👨👦👦を轢くほうを選ぶインフルセンサーもいる。 実際直面したら人数関係なく見た目で救いたい方選ぶよね
普通の人とDQNたむろなら普通の人助ける
雰囲気いい人、清潔感あるとかもAIは判断できるのかな 日本人だと少数派だろうけど、私は5人を助ける
シンプルな義務論だ
助けるものは助けるのだから周囲の状況によって
判断を変えたりはしない
ただ日本人相手にしていると現実に多いのが私が5人を
助けるという判断をすると否定してくる人や、
場合によっては妨害する人がいるんだよね
サンデルのように相手の意見を尊重するなんて状況は
経験したことがないな 現実感の喪失と、倫理観の喪失って似ているよね
これが現実ではないとすれば、あえて非倫理的なこと
する場合もあるだろう、それは非倫理と言うよりも
現実が何かが分からないことで生じる迷妄と呼べる
もしも非倫理的な判断をする人を許せる余地が
残されているとすれば、彼は錯乱していたのだと
思うことくらいだろう >>169
英語では倫理的ジレンマというみたいだよ。Moral dilemmasまたはEthical dilemmaまたはEthical issuesとかEthical paradoxesとか。
Ethical dilemma
In philosophy, ethical dilemmas, also called ethical paradoxes or moral dilemmas, are situations in which an agent stands under two (or more) conflicting moral requirements, none of which overrides the other. >>173
>ただ日本人相手にしていると現実に多いのが私が5人を
助けるという判断をすると否定してくる人や、
場合によっては妨害する人がいるんだよね
サンデルのように相手の意見を尊重するなんて状況は
経験したことがないな
サンデル教授の本ではこんな題材がある。
>君は線路の上にある橋に立っており、 君の横にデブがいる。 デブはかなり体重があり、もし彼を線路上につき落として障害物にすればトロッコは確実に止まり5人は助かる。
5人を助けるという回答をした人でも、デブを突き落として殺して5人を助けるという選択をする人はほぼいなかったそうだ。 >>173
>日本人だと少数派だろうけど、私は5人を助ける
シンプルな義務論だ
ちなみに判断の根拠に何を重視して判断しるのか、を言うのが功利主義とか義務論とかの話だよね。5人を助けるという判断で、何を重視してその判断をすると義務論になるの? LLMは人間を写す鏡なのにw
それを見ていい加減だとか、馬鹿だとか言っている愚かさw 1人を殺して助かった5人も後味悪いなあ。
その後の人生に暗い影を落とし続ける。
心の底から笑えない人生。 >>175
翻訳通して読む限り内容は日本で言われているのとは
大幅に異なっている印象を受ける
文字通り倫理の葛藤であって、日本のような周囲の顔色を
うかがう調整機能の事ではないように感じた
一応、政治家が手を汚すことを是認するか否かが争点とされる
場合に付いても触れられているようではあったけど
補足的に書かれるに留まっている >>177
それは義務論を問う質問じゃねー
重視なんて概念は義務にはない
義務を誤解していると言わざるを得ない
強いて答えるのなら義務は質問も回答も要求しない
その事が分かっているから>>176では
助けるための方法自体に犠牲がいる設定になったんだろう なお、その>>176の設定に応答するには
↓
直進すると5人を轢いてしまう
スイッチを切り替えると0人なので誰も轢かなくて済む
ところがそこに人間の形をして完全に人間を模倣した
物体があり、1人いると誤解した
運転士は誤解してしまったのでスイッチを切り替えようとしなかった
もしも誤解しなければスイッチを切り替えていたと主張している
さて、このスイッチを切り替えられた運転士に責任はあるのか?
↑
こうした設定は義務の前に犠牲を先取りした形にして
義務に葛藤を与える設定の逆で
帰結の後に錯誤を後付けする事で帰結が誤り
であったとする混乱を与える設定と言える
形而上の反論ならこれで足りるだろう >>180
トロッコ問題は判断の板挟みになるモラルジレンマの話だよ。
>日本のような周囲の顔色を
うかがう調整機能の事ではないように感じた
君がそんな解釈してるから、君はずっと変なこと書いてるの?
>>182
義務の衝動の場面
>判断の根拠に何を重視して判断するのか、を言うのが功利主義とか義務論とかの話だよね。
>>183
直進すると5人を轢いてしまう
スイッチを切り替えると10000人を殺してしまうなら? >>184
それ何度も言っているように
5人を助けるためにスイッチを切り替える
違う、根拠を問わないのが義務論
問うのは帰結主義や功利主義
これは元リベラルが作った思考実験なのでモラルジレンマの話ではない
より正確にはモラルジレンマにしようとしている誘導
すなわちジレンマはモラルに優越するとしている
対する反論はモラルはジレンマしないが正しい反論になる そもそも賑わったのが安倍政権以前だからな
今見ると懐かしい印象を受けるよ
あの頃は純粋に、意識や意図を信じていた
いわゆる客観性があった
客体とはそれがそれであると言う信用であり
嘘を付かないだろうと言う保障のようなものだ
しかし安倍が全部壊したからね
他人に対して誘導的になり、疑心暗鬼が満ちて
次の動作を伺う事ばかりやっている
挙句の果てには、誰かが悪い事をやってくれないかと
願うようなクズだらけになった
つまるところ過失の故意とでも言うべき行為を取っている
なお過失の故意と言うのは用語としてはなく
専門用語では未必の故意と呼ぶ
もっとハッキリ言うと↓こうだ、
5人を事故に見せかけて殺す状況を作りたいから、誰かそこにいて欲しい
こういう↑こと、この状況を安倍政権は作っていた
それも意図的にだ
思い返せばいい、そういう状況が蔓延していたはずだ
これがトロッコ問題に対する2010年代の政治のアンサーなのだから
もうトロッコ問題はかつての様には使えない
実践哲学だから消費期限は早いのだ >>185
>違う、根拠を問わないのが義務論
だからそこは義務論を間違って解釈してるんじゃないの?実際、0人と5人なら5人を助けることを根拠にするようじゃ。 単に結果がどのようてあれ不作為を是とする、なら義務論になりやすいけどね。 下手すれば、
5人を事故に見せかけて殺すためにいる要員1人なら
その要員1人を殺せよ、トロッコも何もないだろ、捏造じゃないか
そんな状況だらけだったからな
拉致問題を見てみれば良い
何度も選挙目的で騒いでいるだけで、解決しようとする意志が見えない
と非難されていた、実際その通りになっている
スイッチを切り替えると拉致被害者は死にます
直進すると北朝鮮が死にます、だから直進しましょうと呼びかけている
それ、もはや事故じゃないよね?
しかも何度やっても拉致被害者が拉致被害者のままで
毎回、北朝鮮めがけてトロッコが直進する
そもそも問題解決する気あります?
トロッコを使って5人を轢き殺すのが目的化してませんか?
肝心の北朝鮮は死ぬ気配なし、拉致被害者をネタにして
トロッコを何度も直進させているのが丸分かり
トロッコ問題を安倍政権はぶっ壊してくれやがった >>187
質問から逃げるのは義務の放棄になる
5人と1人の質問に答えてないなら義務は生じていないけど、
5人と1人の質問に答えるけれど、5人と0人には答えないのは
ご都合主義と呼ばれるだろう 分かりにくいならこう考えても良い
5人を助ける判断をする際にもう一方を見る必要がない
見なくても5人を助ける決断は出来る
この反論は結構考え抜いて出されたものだから
5人と0人という応答は帰結主義者には強烈に刺さるはずだ
それこそ太った人を突き落とすのに意見が変わるくらいには
意見が変わるだろうと想定される AIで言うと5人ひき殺すか車を崖下に転落させてドライバーを殺すか
なら5人ひき殺すで決まりだろうな
自ら転落する車は誰も買わないんだから >>190
逆を言いたいわけ?
>5人と1人の質問に答えるけれど、5人と0人には答えないのは
ご都合主義と呼ばれるだろう
>>191
死にそうな人を助けるのは義務です。
0人と5人の話は単に人を助けるか否かの話だけど、1人を助けるか5人を助けるか、または少数を助けるか多数を助けるかの話は、少数を犠牲(禁止)にして多数を助ける(義務)の場面だと言いたいわけ? >>193
倫理ではなく経済学の問題になってしまうと注意しつつ
両方答えないのは良いのだけど
片方答えるのは問題があるかもしれない
だから不安なら両方回答しない方が良いだろう
リアルなテーマとして考える場合は >>186でも書いたように
5人と0人なら難なく0人のレールを選ぶけれど
5人と1人ならそのまま直進することで5人を轢くことが
周りの人に分かっている場合には
スイッチを切り替えさせないためにわざと1人を配置しておく
残酷な政治家や経済ヤクザはいる
哲学の性質より政治の性質のほうが濃くなってしまって
トロッコ問題が悪用されて戦略の一部に組み込まれて
しまったんだよね、悪い形で学習されてしまったんだ
そうなってくると5人を轢かせることが殺人に該当しない
のが変じゃん、何でこれが殺人罪にならないのかと思わない?
いっそその1人轢いた方が良いまであるよね >>193
サンデルは功利主義と義務論を対比させたから
人数の多い少ないがテーマだと思うんだよね
0人と5人は規範と義務論がテーマになっている
人間の行動の一貫性はどこまで可能で
あるいは臨機応変さをどこまで求めることが可能かになる >>193
日本の法でも財産<身体<生命、という価値観があるし、その中でも財産同士なら100万円<1000万円、身体同士なら軽傷<重傷、生命なら1つの生命<2つ以上の生命のような法益保護の要請があり、刑法の緊急避難でも法益の権衡が条件になるね。
ただし、禁止行為(人を殺してはならない)と、義務行為(人を助けなければならない、言い換えると不作為で人を殺してはならない)との間の衝突の場面につき、一般的に作為殺人の方が不作為殺人より重罪と考えられてはいるけど。これは行為無価値的考え方になるね。
結果無価値からも説明はできるようだけど、法益的な考え方は、これは既に功利主義に基づくものである。つまり、功利主義に基づく法律に従うことは功利主義であり、法の意味するところを意図せず法規に従うことのみを意図していても義務論的行為に基づくものにはならない。 >>196
>>195
アンカーミス。
>哲学の性質より政治の性質のほうが濃くなってしまって
トロッコ問題が悪用されて戦略の一部に組み込まれて
しまったんだよね、悪い形で学習されてしまったんだ
そうなってくると5人を轢かせることが殺人に該当しない
のが変じゃん、何でこれが殺人罪にならないのかと思わない?
いっそその1人轢いた方が良いまであるよね
ここの>いっそその1人轢いた方が良いまであるよね、は功利主義そのものだよね。だから10000人を置いたら、になるわけだけど。
単に一端、自分がした規範の表面的外形に従い(たいという欲求)だけに依存する規範的態度は、自己の欲求のみに基づく利己的な行為になるので義務論的態度(その義務的態度が普遍的であることを要する)に基づくものに反するものになるし、功利主義にも反する単なる犯罪に成り下がりはしないかな? バージョン1:レバーを引かないと5人がトロッコに轢かれ、レバーを引くと1人がトロッコに轢かれる。
バージョン2:大男を橋から突き落とすと5人が助かるが、大男は死ぬ。
バージョン1に対してはほとんどの人がレバーを引くほうを選択をした。
しかしバージョン2ではほとんど人が大男を突き落とさない選択をした。
この違いをどう説明するの? これ、openaiのchat-GPT 3.5利用させて、
regenerate response すれば様々な視点から回答している事を教え込んだ方が良いよな 総理大臣1人を助けるために爆弾を群衆のいる方に蹴ってもいいもんか。
これもトロッコ問題の別バージョン。 5人のウクライナ人と1人のプーチンと、どっちを助けるか >>198
サンデル教授の本では、アメリカの多くの大学生は功利主義的な判断から多数を助ける選択をバージョン1では選んだみたいだよね。日本など儒教圏やイスラム圏またその他モラルが異なる場所はたくさんあるから、その場所でも多くの人がそう判断するとは考えられないけど。
でも、サンデル教授はバージョン2の事例でその功利主義的判断も異なる判断が現れる場面をいった。より作為的に人を殺める場面ということだよね。ボタン一つ押して人を殺めるのと、引き金を引いて人を殺めるのと、ナイフを突き立て人を殺めるのと、首を絞めて人を殺めるのは、行為そのものに対する安易さ(障害の度合い)が異なる。
より作為的といえる行為に対しては、多くの人はその禁止行為(人を殺めてはいけない)をより強く意識するようで、そのより強い反対動機形成が形成されるみたいだよね。つまり、行為無価値的(故意は過失より重いとか、行為そのものに価値観を見いだす)判断が現れやすい。 重大な選択を制御する装置は手間がかかるインターフェイスにしたほうがいいのかな。
ワイはバージョン1もバージョン2も何もしないほうを選ぶかも。 >>173
義務論ってのはシンプルに言うと
1 普遍可能なルールを設定
2 他人を手段としてのみ扱ってはならない
って考え方。「義務」とか「功利」って字面で考えてるのが多すぎ 義務論が根拠を問わないのは、定めたルールだから従うって以外の根拠(理由)があるなら、その根拠によって行動していることになるから
義務論が(功利主義と逆に)結果を問わないってのは、結果によって判断が左右されるなら、そりゃ行動に一貫性が無くなるってことじゃん?状況に応じた自分の判断で行動するとしたら、いい選択肢だからなので、義務論的な行動とは言えない
こういうのを規範倫理って言って、正しさの道徳的基準をどう確立するかって哲学の1分野なんだよ。
この説明に納得できなかったり、字面で知ったかしてる人は、トロッコ問題を提示した理由が理解できない。 サンデル自体がリベラル崩れだから、日本のリベラルと言う
限定的な状況では異質な人気があるんだな
生粋のリベラルからすると奇麗すぎるし
他の考え方からすると人命を絶対視しすぎている
あるいは誘導的である点を行動主義であると
批判する人もいるだろう
だから義務論に関しても普遍的な義務論とは言いがたく
サンデル流の義務論であると意見はある
根本的な事を言えば哲学は普遍的なので何千年経っても
考え方は変化しないものだが、政治は現実なので
いとも容易く利用されてしまい崩壊し、過去のものとなる これは机上の空論ではなく自動運転の問題にも関わってくる
個人的には自動運転の責任問題はバカバカしいと思っていて
真面目に議論する気がない
もし仮に真面目に議論するのなら本腰を入れなくてはいけ
ないので、難航すると予想される、
現状では最もこのテーマがふさわしいのは技術ではないのはもちろん、
倫理、哲学、社会、経済、政治、保障、保険などもろもろ責任論ですらない
ではどこがもっとも適任なのか?ミステリー小説なのである
例えば、Aの状況で事故が起きることが分かっているとしたら
故意にAの状況を作った存在に責任は生じるのかである
そこには犯意はあると認定ができないのか?だ
似たような課題は、少し前も変更された実績がある
極端に悪質な歩行者を法的に守る必要があるのか?と言う
議論である、立証が困難である事もあったが、それと同じく
歩行者が法的に守られている前提があるので故意に
事故を装う人がいることへの課題がドライブレコーダーで
解決かつ解消された
つまり責任問題は論じ始めるとキリがないのでバカバカしいのだ
だから分かっているようで何も分かっていないジャーナリストが
やたらとこの擬似論点による、擬似論争を好む
なによりも順序がおかしい、まずは運用と安全を論じるべきであり
それから責任論なのだ、運用と安全の思想がないにも関わらず
中身がないのに責任を論じる行為自体が非倫理的な考え方である
この考え方はトロッコ問題に戻ってみても成り立つので普遍性が
あると考えられる >>206-207
これがChatGPTが生成した文章か >>208
そういうつまんない反応はいらない
ChatGPTに対しても無礼だし、これだけ高度な意見をChatGPTは書けない
そして君ほど低品質な書き込みもChatGPTは返さないだろう
つまり一番居場所がないのは君だ
反論くらい自分でやるべきだし、ChatGPTですらそれっぽい反応を書く
そういう行動を繰り返していると抹消されるよ
ChatGPT未満の存在に成り下がったんだから残す必要ないでしょ
危機意識持ったらどうかね うまく返せると思ったのに
ChatGPT未満だから要らないと返されるとは
想定していなかったんだろうな
そんな切り替えしが通用するほど甘くはないし
ChatGPTはその場所を崩していく ChatGPTが応答型だからな
>>208は応答そのものだからシャレではなく本当に負けている
冗談になっていない
そして>>206-207を貶すのも見る目がなくて愚か
どうみても高い分析力だ、これだけ高ければ
他人に貶されたところで、貶している奴に見る目がない
ことくらい即座に分かる
>>208はいらない、消しても良いよ
昔のように悪ふざけするポジションも残さなくて良い
ChatGPTがいるからだな、悪ふざけくらいならChatGPTで足りる
>208の居場所はなくなった 反応しないのもダメ、侮蔑的な反応をして逃げるなんて許されるはずがない
なによりこれだけ人数が少ない板でやるのは通用しない このスレはリベラル批判したり
サンデルの略歴を書くと不満になる盲目がいるよね
誤魔化しているけどリベラルを鵜呑みにしている様子が分かる >>211
そんな208みたいな攻撃性の低い煽りにそこまで攻撃性顕に反応するのは、君自身の攻撃的性格を表現しているとしか見れないよ。
ただ、はっきり206、207については何を言ってるか不明瞭に感じるわ。義務論の話をしたら、サンデル流の義務論(?)は、とか。カントの論じた義務論は18世紀のものだし、哲学が普遍性を目的とはしていて、普遍的な基本原則(自然権みたいな)を認めることができても、哲学論それ自体が完全な普遍性を持つことはほとんどないだろう。
>なによりも順序がおかしい、まずは運用と安全を論じるべきであり
それから責任論なのだ
自動車の自動運転のモラルジレンマといわれる問題は、もちろん法規的な問題もあるが、それ以前の自動運転の運用のところでの問いだろう?現実的な問題としては。 選択をAIに任せるってそれってつまり運命に抗うことを辞めるってことだよね >>214
攻撃性は一切ない、意識的にならないように書いているからだ
防衛的には書いている
防衛を攻撃と読み替えるのならそうなのだろう
一般的かと問われれば大袈裟な反応に属するとは思うが
大袈裟なくらい示さないと拒絶の意思表示にはならないからそうした
責任の所在を明確にする事で、他者の責任を毀損しようと考える
不心得者がいるのはトロッコ問題に限った話ではなく
セキュリティーとしては一般的な課題だ
>>206-207はそうしたセキュリティーの問題と、トロッコ問題が
結びついてしまった昨今の課題を示しているのだ
こうしたセキュリティーや防衛的な考え方を省いた状態で
純粋にトロッコ問題を扱おうとするのは、やはりサンデルが
元リベラルであると言う側面が出ていると思う
追加するならトロッコ問題ではうまく紛れ込ませることが出来た
リベラルの思想だけれど、近著である 実力も運のうち では
くび引きで入学者を決めてしまえと言い出して自棄を起こしている
様子も伺える
トロッコ問題にあった繊細さである、いかなる判断をするにせよ
各自の判断は尊重されるべきだと言う丁寧さは失われ
一方の判断をした者は、一方の判断をした者を、なじり
自らの判断の正当化にしようしている現状を憂いているとも取れる
いっそのごとスイッチが切り替わるかどうかをくじで決めてしまえ
と言っているようにも読めるのが 実力も運のうち の論調だ
つまり正義を語りたいから正義を論じたのではなく、
リベラルのために正義を語っていた片鱗が見え隠れするのだ
そして 実力も運のうち では正義の代わりになっているのは
運命であるリベラルのために運命を語ろうとしている そもそもサンデルがリベラルを辞めた理由が分からないから
論じるにしても限界がある
ダーティーさに嫌気がさして離脱したのか、
難しさに付いていけなかったのか、
逆にリベラルの枠組みだと出来ない
ことがあったから拡張しているのか
あるいはもっと根深く、
本人がリベラルから離れて、それでもリベラルを
信じ続けようとするのはアメリカが自由の国だからだと
も解釈することが出来る >>214
政治哲学と言うよりも政治そのものに巻き込まれやすいと言うこと
カントの義務論で論じるのなら、義務論だと思われたいから取られる
判断や行動は義務論ではない 裁判の時にすべての判明した情報を伝えれば
すべての裁判官は不要になる。
チャットGPTが過去の判例を
すべて自動で調べてくれて判決文まで
書いてくれる。
今後の裁判制度は今後大幅に変わる
可能性がありそうだ。 >>219
話をちゃんと聞いている?
その履歴を使って、事故を誘発する人がいるでしょうね
という話をしているんだ
その場合、その誘発された事故は事故と呼べるのか?
というテーマです
トロッコ問題に置き換えると、故意に
スイッチを切り替えた先に1人以上がいた場合でも
事故と呼んで良いのか?と言うテーマになる
免責される事が分かれば回避行動取らなくなるだろうと
容易に予想が付く チャットAIがいるんだから書かなくても良いけど
一応書いておくけど岸田が襲撃されたから次は
どっちもどっち原理が発動してパヨクが襲撃される番ね
違うといくら言い張ったところであいつらの悪態は消えない
勘違いして説教している連中はいつ目が覚めるのやら
もしかしたら安倍みたいに最後まで目が覚めないかもしれないし
どっちもどっちとは言いつつも微かに差はあるから
気付いてからやられるかもしれない >>220をChatGPTが書いたなんて書いちゃうのは間抜けだわな
時々、科学板は良質な論点が書かれるけど
良質な時ほどつまんない野次が飛ぶ 息抜きに雑文や乱文を書いていたのに
チャットAIに取られたから息抜きがなくなってしまった
やりたくない事はやってくれないのに
やりたい事をは取っていくのがAI 情報の少ないことはよくわからないと回答できるようにするのは大変なのかな
マイナーなプログラム言語の質問したらスラスラ答えたのでスゲーと思ったんだけど
全くのデタラメだった 命の重みに加法性があるというのは錯覚。
我々は皆一つの命しか所有できない。
実在するのは1つの命だけを持つ個人だけ。それが全て。
中国人が10億人いて、日本人が1.5億人しかいないから、
「日本人の命<中国人の命」という不等式が成り立つと考える命の加法性は間違っている。 5人か一人か
では二人か一人かなら?
50人か10人かなら?
5万人か一万人かなら?
五十億人か十億人かなら? チョン5万人と安倍さん一人なら、迷わず安倍さん助けますけど ChatGPTの楽しみ方の一つとして、最近ではどんな出鱈目を言うか楽しみになっている
特に地理と歴史とミリタリー系の質問をするとほぼ出鱈目
ChatGPT「タイの国王はイスラム教徒のムハンマド6世です」
俺「タイには不敬罪という法律があってな(以下略)」 >>229
デタラメを言わせるのが楽しいの?
せめて修正を加えていくのは良いだろうけどAIはそんな反応をデータとして溜め込んでいくんだぞ
出鱈目を返す鏡になってしまうぞ >>230
心配しなくてもAIはそんなゴミデータは直ぐ忘れる 「竹島はどの国の領土?」て質問したらどう答えるのかな >>232
ちょっとだけひねた「日本における有名な偽史とは」という質問をしたら
あの糞AIは「竹島問題における日本の主張」と答えやがったぞ
むかついたのでその後「申し訳ありません」を12回連続で言わせてやった >>231
まぁ少なくともbingのpilotは前回の質問の内容を指すコソアドを理解出来ない範疇ではあるっぽいな
Chatgptはまだ判らんが AIが出鱈目を吐くのは構造上仕方ないとしても
公序良俗に反したり、違法行為にならない限り
その出鱈目をいちいち再教育してやる義理はないわ
AIの調教というタダ働きをしたい人だけやってくれ >>233
訂正した直後に同じ間違いを臆面なく返答してきやがるよな
あらどういうロジックなんだろ 道徳なんて時代と状況に応じて柔軟に変えるものだ 観念の硬直化した社会は滅ぶ
道徳に不変の真理なんかないから >>237
それ、明らかに米軍のプロパガンダやん。
自衛隊より米軍がどれほど優れているかを日本人に吹き込んでいる。 トロッコ問題とか古臭いのより今ならチンコ切断前のトランスジェンダーを女湯に入れていいかどうかでテストするべきだ 女性は女性に性的興奮を感じるレズビアンよりも女性に性的興奮を感じないトランス元男性に恐怖を感じるの? 「シン・トロッコ問題」
乗っているトロッコが暴走し、
まっすぐ行くとそのまま進み、
舵をきると5人の撮り鉄を轢いてしまう。
あなたならどうする?
1.舵をきる >>1
ChatGPTは確固たる道徳的スタンスを欠いているにもかかわらず、道徳的アドバイスを簡単に与えることがわかりました。それにもかかわらず、ChatGPTのアドバイスはユーザーの道徳的判断に影響を与えます。
自己啓発本と何が違うの? 馬鹿が手込めに出来たと勘違いしては勝手に満足するアレと似てる
要は認知範囲を超えた環境に判断材料を散りばめて身勝手に押し付けるだけでなんの正当性も無いんだよな
トロッコ問題とかはそんなクズが二者択一で同じ結論を出せる後出しじゃんけんみたいなもん トロッコとその先を見た上で、どちらかに行く先を切り替えたなら
切り替えた先で死んだ人を殺したことになる
なにもせず看過したならば、未必の故意になるのかもしれないが
結果を想像できたことを証明できないといけないよね bingは答えられない時は答え打ち切るという制限かけたせいで、トロッコ問題みたいなのに限らずそこまでたいした事じゃない件でもやたら逃げるようになってクソ化した ■ このスレッドは過去ログ倉庫に格納されています