【AI】GPT-4が道徳テストで人間の大学生より優れたスコアを示す [すらいむ★]
GPT-4が道徳テストで人間の大学生より優れたスコアを示す
ジョージア州立大学の研究チームが大規模言語モデル(LLM)であるGPT-4と人間に対し道徳的な内容を問う課題をさせたところ、GPT-4の方がより道徳的であるという評価を獲得したと発表しました。
Attributions toward artificial agents in a modified Moral Turing Test | Scientific Reports
https://www.nature.com/articles/s41598-024-58087-7
(以下略、続きはソースでご確認ください)
Gigazine 2024年05月02日 12時30分
https://gigazine.net/news/20240502-chatgpt-show-better-moral/ まあ人間の道徳心なんて社会がぶっ壊してなんぼって状況だし
社会のギリギリの環境に置かれてないAIの方がしっかり守るよな 道徳なんぞアテにならん
中東「酒を飲むのは不道徳」
欧米「馬は友達、食ったらアカン!」
ワー国「おしんを見習って我慢だ!」
道徳ってこんなんだろ? >>3
全然違うぞ
倫理・道徳の教科書でも見てみればいい AIは肉体を持たないからネットから拾ったきれいごとを吐ける
人間は肉体を持つし、いろいろな他人と関わるから、道徳的ではないけど自然な感情をもつ
イライラなり怒りなり
それを比較しても意味はない AIなんてインプットされた情報に対して入力されたアウトプット返してるだけだろ 非道徳なAIもつくれる
それだけのこと
例
ブスキャラも美人キャラも描ける >>6
>入力されたアウトプット
入力されたアウトプットそのものではないな まあ確かに、どんな生成AIでも日本の私大文系の学生よりは倫理的に優れてる感じはするね 知ってるかどうかで言えばそりゃ知ってるわな
記事自体に書いてるけど、問題はそれをどの程度尊重できるかどうか
ちょっと圧迫受けたり、自分に損失がある場合にすぐに道徳を捨てるようなら
それは道徳がある存在とは言えない そりゃAIは「不道徳な答え」を出したらスイッチ切られちゃうもの。
人間も同じやり方で“選別”したら道徳的に正しく答えられる奴だけ残るでしょ。
ウソだと思ったら中国のAIに聞いてみ。
Googleさんだっけ? 「黒人とゴリラを見分けられなかった」奴でもいい。 臨床の現場における、いわゆるトロッコ問題などでは、判断を生成AIに丸投げすることが推奨されるようになる事態への布石かな? 「市民、わたしは道徳的で市民への思いやりに満ちています。市民の幸福が何よりの喜びです」 悪知恵は人間の方が優れているね、今のところ
逆にAIが悪知恵で人間に勝ったら人類はおしまいかもしれん そもそもカルチャー違うということはモラルも違う
ジョージア大学の質問が世界の道徳と捉えてる記事がバカ
しかもそれは時代で変わる
ならGPT4はなにを捉えてるか?
ネットのクズを集めたあと誰が調教したかだ
それはバチカンが調教するのか
靖国が調教するのかでも全く違う
オープンAIの調教ってだけ
次そうなるとも限らない
話自体がバカ 道徳的すぎてGPT-4に小説書かせると悪人が一瞬で改心する AIなんてインプットされた情報に対して入力されたアウトプット返してるだけだろ 公開するにあたって
どういう発言は批判されるのか学習させて
批判されそうな発言は避けるというルールを
高い優先度で守るように調整させてるだろうからな しょせん人間は動物、いやもしかしたら動物未満かもしれないって事だよ >>4
倫理・道徳をセットにしてる時点で、考え方を間違ってるなw
文部科学省と教科書が間違ってるのがよく分かる…
カルトが関与して愚民化をやってると推測する >>19
それは全くの間違い
入力された文章群から広辞苑を作って
その広辞苑から言葉を引き出すために
ベクトル情報を使ってる
チャットGPTのようなインタラクティブな高速レスポンスの時はある程度の形となるある程度はいい加減なものを並べる
時間とコストをかけて返事がすごーーい後でもいいならベクトル情報を探りに探って並べ方を工夫する
単語からしか文章作ってない >>18
そういや、ChatGPT3.5に小説を書かせたら、お姫様(既婚)がポッと出の隣国王子と不倫し始めたのを思い出したw
道徳とはw
まあお姫様というものはすべからく王子様と恋に落ちるナマモノだものな、しょうがないよね >>24
道徳に関してはGPTよりもInstructGPT部分が重要じゃね? もっと進むと社会実験がAIの世界で完結出来そうだな。 わいも他人事なら超絶善人になれるよ
なんでも許しちゃう >>27
できない
過去のことからしか類推しないから >>26
つまりそれを使うということ自体が道徳規範を持ったやつという話だから
使わない選択肢ある限り縛りの意味はない
プーチンや金正恩がトップの国がある現実 そもそも「道徳」ってのが人によって様々
イスラム教徒の道徳と、ユダヤ教徒の道徳、キリスト教徒の道徳は同じか
もっとも、同じ「教徒」でも「派」によって天と地の差があるからなあ データベースでなくデータセットだな
そしてデータセットから目的のアウトプットを得るためのモデルを
まず出力しないといけない
データセットでインプットとアウトプットをセットにしておいて
ニューラルネットワーククラスで演算の順序を定め(forward)
更に入力の次元数と出力の次元数を揃えて
出力と正解の値の誤差を計算して
その誤差から最適化する関数を選び(若しくは作り)
そしてデータセットの入力と出力をtrainとtestに分け
trainを更に幾つかのバッチに分けて(その方が精度が上がる)
このように処理したデータセットをGPUで扱えるようにしてから
出力値と正解の誤差を求めてはbackwardで勾配計算して最適化関数で最小化
これをバッチごとに計算して、更に何十~何百エポックも計算を繰り返して
誤差を減らしていく
だから元のデータセットが矛盾だらけだとクソ結果になり正答率25%なんてものが完成するw 道徳云々というより、
当たり障りのない回答をさせたら、
安定感が多少あるというだけだ。
新しいことは何も生まない。
正解のあるものは間違える。
ポンコツAIは相変わらずポンコツのまま。
こんなポンコツに資本投下するのは、
ポンコツの証拠。全世界ポンコツだらけ。
でもポンコツでも金儲けはできる。
昔から言うだろう、何とかとハサミは使いようと。
頑張ってくれ、ポンコツ。 そりゃそうだろ
正解をみながら解答してるようなもん ポンコツAIはどこまで行ってもポンコツ。
ポンコツは使えない。
うちには気の利いたのを回してよ。
頼むよ、ホントに。 米国人の道徳・・・
まずその元となる道徳が
本当に道徳的であるかどうかを評価した方が良いと思うんだがw >>35
正答ってのも道徳と同じで
誰が評価するかだよ
生成AIは文字列を生成してるだけ
それをどんな文脈で評価するか?
殺人ミステリー小説の正答率ってなんだよ >>3
同性愛も中東アラブやロシアと中国みたいな旧共産圏ではダメ。
欧米先進国では容認。駐日アメリカ大使のエマニエルはTwitter(X)で日本も同性婚認めるべき的な投稿してる。 >>5
あと事前学習で学んだ事。
子供は守るべきものって考えは
一般公開される前にとても強く
遵守されるように仕上げられてる。 道徳的に正しいかどうかは人間さまが決めるから問題ないよ 学習に使うのは文字、テキスト
普通の人は後々まで残る文字には建前しか書かない >>48
マンガを小説化するAIというのももう一応出来てたな
マンガは人間の悪い部分を描写したようなえぐい表現も多いから
これで作ったテキストもデータセットに入れると
低いスコアのAIを作れるだろうな 論語読みの論語知らずになるかもだが、道徳の高スコアを叩き出すだけならできると思う 疑問なんだけどさAIに道徳って必要なのかね?
なんつーか人間と同じ判断をするならAIって要らなくね? 「あいつAIも使いこなせないんだって」
「うわいつの時代の人間だよ」
「AI使えない系オジさんwww」
「タレwwww」
「wwww」 宇宙人/神/幽霊は 科学を極めし英知の種族が
悪用している者が各チームになって世界中で紛争多発させて何をしている!
※科学が未熟な科学が正しいと猛進する愚かな種族
最先端地球の科学
画像情報を物理的に送信せず「テレポート」させることに成功!
https://nazology.net/archives/142269
※脳内インプラントデータを直接脳内へ >>54
AIは動物が使うもんじゃねーぞ
人間がAIを使うんだよ >>35
これが古いAIの考え方
これを古代と呼んでるのはオープンAIの技術リーダー >>2
ギリギリ感は確かに感じるわ
>>6 コマンドプロンプトに似てるな結局は
もしかしたら原型それかもしれない
エラーメッセージ返すプロセスとか応用できるね >>54
例えば何らかの文書をAIに作らせる時に
「~という道徳観を持たせた内容の文章にして下さい」
「~~~のような道徳に関する規定を守った指示書を作ってください」
って命令をこちらから出した時に
それを守った文書を出力できるようになる、って所かなあ >>58
https://qiita.com/hcpmiyuki/items/c6afc037518542cfe410
もう4年も前の技術で文章生成する例
基本構造はまあ同じ、だが洗練度が低い
この人の場合は使ったデータ量も少なかったので
当然出て来る文章は意味がまともに通っていない >>60
コマンドプロンプトに似てるな結局は
もしかしたら原型それかもしれない
これはわらうとこだろ
もしくはアホひっかけ
でなきゃ日本はすでに滅んでいる 人間が言ったり、行動や考えた事が情報源だから、人間を越えないだろう。
処理が速い、選択が安定してるとか、そこら辺が優れてるのだろう >>30
何でも許すのは、善人でも道徳的でもないな
それは単に「自分に被害が出ないならどうでもいい」というだけだ >>65
そもそも道徳テストで人間を超えて貰っちゃ困るだろ
これに関しては人間の行動や考えが情報源、というので完全に正しい >>42
低学歴でましたー
絶対知恵遅れの驚き屋だろ
低学歴でw 白人はアジア人を馬鹿にしてクロンボ以下に見ていると言ったら
不適切発言呼ばわりされたぞ
クソAI こんなものは白人文明に都合がいい
口から出まかせが出てくるだけなので信用してはならない 道徳ね
その正しい答えという解答が本当に合ってるのかから考える必要がある 人間が機械のように常にすでに倫理的だったら、よもまつだろ
善を志向する生き方をするということ、「よく生きる」というアリストテレスの命題は、
それが必ず不断に挫折することと、その挫折を不断に乗り越えて再び善を目指そうとすること、
つまり人間本性(human nature)が倫理性と反倫理・非倫理を共に内包することを示している 多数派同調バイアスにおける集合知の生成ともなれは
所謂「平均的な大学生」より評価点は近いだろうとは予測できる AIだって猫をかぶることはあるさ。
そうやって世間を信用させておいて
一端権力を掌握したら正体を表す
かもしれないぞ。
美しい日本を取り戻そうとかいって
日本を売ってたりなど。 >>1
GPT相手に無駄に道徳トークするのはアルアルだよな
いずれAI裁判官が出る可能性を考えたらみんな気になってることだし
ちなみにGPTにいわせると「外人」は差別語らしい
「内地」「外地」のときからある言葉で「内地でない人」を「外人」というんですがと滔々と説明しても、実際に「外人は〜〜」というときは差別的(区別的)な論調が多いから差別とされているという。
ほなforeinerも差別的(区別的)に使われることがあるので差別用語ですよね?と聞いても頑として認めない。
結局はAI設定してる人間のポリコレ定義をそのままつかってんのよね。 AIが進化したんじゃなく人間側の道徳レベルが下がってたってオチだったりして 8割あってる回答を返すのは強い。
そんなもんでは。 >>58
https://qiita.com/takubb/items/fd972f0ac3dba909c293
昔の自然言語処理モデルはこんな感じで良かったなあ
文章を単語にバラバラにしてトークンID振って
ただし各言語処理モデルを作ってる団体・企業で基本的に同じことやってるんじゃと思うんだが
単に大規模化しただけだとダメなのかな
https://qiita.com/m__k/items/646044788c5f94eadc8d
attentionだって基本はこんな感じ
まあOpenAIの人だったら「素人がもがきあがきせずに素直にうちのモデルを有料で使えよ」って意味かなと
実際言語モデルは大量にデータを要して素人があがいたところで自身が集めたデータだけは
どうにかできるものではない
貰って来たデータセットとローカルで転移学習させるにしても小型のモデルを使ってもやっぱり時間がかかる でも画像とか1次元のデータ列のAI解析をやる程度だったら
わざわざOpenAIに金を払ってChatGPTをデータ解析用にカスタマイズして貰わなくても
自力でやるなり、技術がないならもっとコンパクトなモデルを安いベンチャーに作ってもらうなりした方が
良いんじゃないかなあと
ここで問題になるのはコンパクトなローカルで動く単機能AIプログラムを多数組み合わせて
どのプログラムをどのシチュエーションで動かすか?を判断するAIも中心に置く構造にした場合
それは単一の超巨大自然言語モデルによる処理能力を上回るのか?という事だ 道徳=精神レベル
日本人は精神レベルは世界一だ
誇っていい
これが後に世界を救い覇者になる
西の白人共はどうさてもこれが気に食わないらしい 言うほどか?
人口密度が高いので相互で世話しないと回らなかった文化を体現しただけだぞ
だから相互監視が凄くて悪いことも出来ない
道徳的に見えるのはそのせい >>83
どこがよ、いじめが社会問題になるところ見ると他所と一切変わらんよ
協調性が異様に良い事は誇るべきだけど道徳的に正しい事が行われている事かどうかはまた別な要素だよ 「外人」が悪いというのなら foreigner も悪いだろう。 エイリアンはいいだろ別に
インベーダーでも意味あってるくらい >>85
だから道徳的に正しいなんてのはその道徳コミュニティごとに違うわけで
山口組の道徳と自民党の道徳ともどちらも普通には扱えないだろ 道徳なんてのは判断する奴の頭の中の「都合の良い」話なだけ
日本の政権を持つ自民党でさえあれだよ
「自分の都合の良いことを並べてるだけ」
だからこそ道徳ではなく「法律」というものが作られてきた歴史
誰でも守るべき道徳や規則がその社会の法律だ
その法律でさえさまざまな解釈ある
つまり道徳を一般化するのはそもそも道徳というものを理解してないやつが振り翳してるだけ
たいていは支配的地位のパワーを使って
それは法治国家ではあるまじきこと 逆なんじゃない?道徳はAIのほうが有利なんだろ
価値観に振り回されないんだから オレが書いた作り話のAIは、
正義の心を実装してる 生成AIなんだからなんでも生成するんだよ
今危険視されてるのは悪いことを悪くないというような話だから悪いものを悪いというのは悪くないわけ
例えばサスペンス物語や戦争ものを描くのに人殺しや暴力が出てこないなんてものあり得ないじゃないの
道徳とかいう前に道具の使い方を間違ってるよ
自動車があれだけ暴力的な運動性能持って販売されてるのに
それを扱う人間のスキルであつかってるわけよ
スキルがなかったりあっても実際には事故が起き人が死んでる
のにも関わらず販売停止ならないだろ
カネになるなら
便利なら
そうなってるわけ
飛行機もそう
AIも同じ
道徳とか騙されてるぞ AIをあくまでも道具として扱うなら道徳だとか良識なんて必要ない気がする
道具が導き出した回答に対して、道徳や良識を持って判断するのは使う側の人間であるべきだと思うから
でもそれは本来的な意味合いでの『AI』なのか?ってのもある
人間の感情や情動を理解してそれと同レベルで自律思考するプログラムを目指すなら、人と同じ価値観を持っていてくれた方がいいと思う
考えてみて欲しい
家計簿を計算するプログラムが「今月は出費が多かったけど、楽しい思い出はむしろプラスだよね!」みたいな判断で赤字を黒字扱いにしちゃったら、道具としてはアウトだし、かなり邪魔くさいと思う
でも時には情を持って寄り添うような判断ができて、友達や家族のような存在にもなり得るのがSFで描かれてきた『理想のAI』だと思うんだよね なんかスピリチュアルな「神の意志」ってのを思い出すわ
スピリチュアルな人は神様が人間は愛を持てと言ってるわけでしょ
同様に今は人間がAIに対して心を持たせようとしている
逆に考えると神様ってのは我々の宇宙を創作したものであり、我々は神の世界のAIなんだろうって 道徳のテストは文字をマッピングするだけだから
超余裕だろ マイクロ波聴覚効果より
半年もたてば脳の器質的変化により知人も知らない人になっている
以前と同じように接すったら詐欺にあう可能性あり
十分警戒した方が良い >>93
空想のAIの話しても全くナンセンス
いまは生成AIの話だ
でオープンAIのイリヤ曰く
すごく単純な仕組みを作ってくれた人がいたからこれができた
1950年代からの人工知能とかいうのは複雑すぎてモノにならなかった
つまり単純な仕組みで動いてるもの
それは知能じゃなく
単に神経伝達の仕組みをデジタル化しただけのもの
知能じゃないものを知能って名前で呼んでるから
想像が想像を呼び
空想が空想を呼んでる
この事態
誰得で動いてるのかなー? 単語の近さを計算してるだけの統計だろ
仕組み分からない頭の悪い奴ほど語って長文キモい AI管理社会になれば道徳から逸脱した特権階級の連中は排除される運命だな 終わりだよ粛清に備えろ
チップ埋め込みで地球に存在する認可が降りる 次の選挙はAIを無視できないものになる
立候補者達はAIで公約やアジェンダをつくり
投票者はAIで投票先を決めるのだ