【GPT-3】「AIか哲学者か」を見分けることは専門家でも難しいことが実験で明らかに [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
「AIか哲学者か」を見分けることは専門家でも難しいことが実験で明らかに
人工知能を研究する非営利団体・OpenAIが開発した言語モデルである「GPT-3」は、非常に高精度な文章を生成することが可能であり、海外掲示板で1週間にわたり人間と会話したり、GPT-3が生成した記事がソーシャルニュースサイトの1位に浮上したりと話題を呼んでいます。
新たに、GPT-3にアメリカの哲学者であるダニエル・デネット氏の著書を学習させて、「デネット氏の発言かGPT-3の発言かを人間の被験者に判別してもらう」という実験が行われました。
The Splintered Mind: Results: The Computerized Philosopher: Can You Distinguish Daniel Dennett from a Computer?
https://schwitzsplinters.blogspot.com/2022/07/results-computerized-philosopher-can.html
(以下略、続きはソースでご確認ください)
Gigazine 2022年07月27日 23時00分
https://gigazine.net/news/20220727-distinguish-philosopher-from-ai/ 今に役人の残業を減らす為にAIで国会答弁の台本が書かれるようになるだろう。
そうして声を失った議員などがいて、自動音声合成ソフトを使って議会で
質疑応答を行うなどもあるのかもしれない。 大昔は全ての科学が哲学だったが、そっからまともな科学はとっくに独立しちゃってて、今
はPh.Dって呼称には名残あるけど、いわゆる哲学者ってのは残り滓だからな コピペなら見分けつかないんだからあまり意味のない話だよな
勝手に新規の論文書くのならすごいと思うが そもそも文字情報による発話内容や形式でAIと人間を弁別できるようでは
AIも人間もポンコツで役に立ちそうもないぞ
民衆というか反知性主義的感情に突き動かされる輩の歓心をかうためのマスコミウケするショーだはこれは これは誤解されやすいけど短いテキストの会話で人を騙せたという話
AIが本当の意味で言葉を理解して思考しているわけではないんよ 実験のテストの一つが例示されてるけど、選択肢がぜんぶデネットの発言に見える >>1
ソーカル事件を知らないのか。
専門用語を散りばめれば、
ジャーナルの査読でアクセプト
されるのが人文系学問の実態。
専門用語を散りばめるのは、
まさにAIの独擅場だろう。
馬鹿馬鹿しい話だ。 でもさあ
俺たちだって
生まれてすぐに言葉が喋れるわけじゃないじゃん
教えてもらって初めてババアとか喋れるわけじゃん
で周りの奴らとかネットや教科書から
学習する
AIと変わらないじゃん
たまにアインシュタインとかの方程式とかなんかを
AIが見つけれるか?とか言いだす奴らがいるかしらんが普通の人間はそんなんできるか?できんよな
だからAIにもアインシュタインとかがどうやって方程式とかを導き出したのかを学習させればよくね?
普通の人間ですらそこにはたどり着けてねーんだよ
俺たちだってコピペしかしてねーしね 誰かの言葉を繋いでるだけや
普通の人間なんか
そんなレベルやん 内容に基づくチェリーピッキングは行われなかったとSchwitzgebel氏は述べています
↓↓↓
GPT-3の生成したテキストがデネット氏の回答とほぼ同じ長さになるように、長すぎる文章は後ろの方の末尾が切り捨てられました。
また、研究チームはデネット氏の回答より5語以上少ない回答や、「インタビュアー」「デネット」といった不自然な言葉が含まれている回答を除外したとのことで、このプロセスで全回答の3分の1が除外されたそうです。 元の駄文書いた奴だけじゃなく、見分ける専門家ってのも哲学の専門家(笑)なんだろ、そりゃあwww ものすごく意味のない実験に思えるけど
>GPT-3にアメリカの哲学者であるダニエル・デネット氏の著書を学習させて、「デネット氏の発言かGPT-3の発言かを人間の被験者に判別してもらう」という実験が行われました。
・哲学者に限らず内容や文章の癖を模倣するのはやろうと思えば誰でも出来る
・むしろ哲学者など主張が独特であった方が模倣もしやすいのでAIの性能のアピールになってない
・被験者のオリジナル著者の理解度は?
「1」と「1」があるがどちらがAIが打った1でしょうか?
極論してしまえばこれと同レベルじゃん まー逆に言えばAIの進化でネットのbotを見分けるのはどんどん難しくなるという知見は得られたか >>6
昔で言うところの哲学は、今は数学と呼ばれている 政治家と裁判官と役人は私欲のないAIに任したらめちゃくちゃ良い社会になりそう。 >>1
文字による会話だけで判断できないのは詐欺師だって一緒
AIなんて
「自分が無知であること」に気づかないだろうし
「自分の思考回路(アルゴリズム)」も説明できないだろう?
人類がAIを信頼しAIに依存するようになったら
エラーを予測することも完治することも原因究明することも対策することも不可能になるぞ 哲学者の言うことは矛盾がありまくり。
AIの方が筋が通ったことを言うんじゃないか。 >>25
数学はそんな包括的思考ではないし立派なものでもない
ただそういう万能感に人間を引き摺り込む魔力はあるけどな >>6
結局科学じゃ扱えない先端を考察するのが哲学ってことよ
それは古今東西変わらない、つまりこれからどんなに科学が発展しようとも、その先にはその当時の哲学がある
そんな哲学たるものが必要かどうかはまた別の話な 安倍晋三の中身は統一教会が極秘に開発したAIだったらしいな それはそうだ
嘘つかない人間はいないし、間違わない人間もいない
いたら神だ、まさに人間は矛盾の塊 数学や物理学でも同様なことが実現したら
衝撃が世界に走りそうw お前ら、ダニエル・デネット氏を知っているのか?
ソーカルが標的にしたポストモダニズム系の哲学者とは訳が違うぞ 脳の言語の部分だけを模倣してる感じなのかな
それだと閃きとかは無さそう 人の言葉を話すオウムやインコが
その意味を理解しているとは思えない、
AIもそうに違いない、
大多数の人はそう考えるのだろうか。
チューリングテストは究極的には難しい領域に入っていく。 人間がこの世に存在する意味とかあるのか?
何かひとつでも証明されてんのかって
AIに聞いてみたい >>39
AIが学習する仕組みは脳のニューロンを参考にしてるよ
大量のテキストデータを事前に学習して、「この単語の前後はこうなる場合が多い」みたいな文章のパターンを膨大な知識として持ってる感じ
哲学者じゃなくても例えば政治家が言いそうなフレーズというお題で受け答えすることもできる
事前学習している文章パターン以外を閃くような機能はたぶん無いと思う 三権AIでいいじゃん!政治家官僚必要無し!ディープステートどもは尚更必要無し! >>44
DLが脳の模倣とか
陳腐すぎて反論する気もなれん
初歩の初歩の初歩の初歩の初めの半歩以下のモデルに過ぎん >>44
AIに使われているのはパーセプトロンという、1956年時点での知見から、神経細胞が状況により刺激の伝播を行うか行わないかを調整するメカニズムを模倣した計算単位だよ。
神経ワンセットの仕組みを観察して得られた知見で、それが集まってどういう仕組みで人の体が動いてるのか、どのように接続先を変えたりするのか以前の話。
なので、細胞観察の知見から得られた計算方式とまでは言えるけどそれ以上のものではない。
昔のモデル化だと、形式ニューロンという言葉で解説されていることが多いから、調べてみて。 ニューラルネットワークをかみくだいて説明すると「脳を参考にしてる」で間違えてないと思うけど
プログラマーが生物の神経を知らずにイチから発明したものではないし DNNは信号が一方方向に流れるだけの、フィードバックの無い回路。
はたしてこれで良いのか?と思う。
パラメータを決めるときだけは、逆伝搬法という技術を使っているが、
一端ネットワークのパラメタを決めたら、フィードバックは
DNN自身にはない。もちろん適応的にパラメターを変える
という機能を付け加えるか、そういうチューニングをおこなう
エキスパートのネットワークをDNNの外側にもう一階層設ける
(一種の自意識のようなもんだな)というアプローチはあるだろうが。 そもそも「哲学者」ってのがなぁ
自称哲学者なら、結構そこら中にいるかも知れんが 日本人なんかオレオレ詐欺もアフリカ人の国際ロマンス詐欺も見抜けんからね >>1
「タッチミータッチミー」
南米ベネズエラ代表選手
南米ブラジル代表選手
昭和40〜60年代 GIGAZINEはPV稼ぎのための不正確タイトルが増えてきたな 西田幾多郎とか悟らなければ分からないと言って有り難がってるが
只の詐欺師だったとしても驚かない >>1
著名な哲学者の思想を真似できても
つまらない。むしろその哲学を一歩
進めて、新たな哲学思想を生み出して、
周りの哲学者に認められたら、
大したもの。AIを評価する観点が
間違っていると思う。
既知の思想とそっくりな文章を
作るのは、むしろAIのダメなところだ。
似ても似つかないが、核心に触れる
思想を語ったときにこそ賞賛すべき。
いくら著名な哲学者とは言え、
その思想の単なるモノマネでは、
使いものにならない。
その哲学者の著作を大量にインプット
したにも関わらず、似ても似つかない
文章を出力したとき、
AIがブレイクスルーした可能性がある。 >>1
AIで成果を上げている分野には、
共通点がある。それは明確で、
かなり正確に定義できる、
ゴールがあることだ。
将棋しかり、碁しかり、
顔認証しかり、文章の模倣しかり。
全てわかりやすいゴールがある。
曖昧なゴールに対しては、
現状のAIは無力。何もできない。 だからAIとか言う用語を現状のdeep learningとかに使うからいろいろ錯誤が起きるんであってこんなもん知能でもなんでもない ベンダが使う宣伝文句にひっかかるのがたくさんいるんだよな
それで先行者は大儲けして、みんながイナゴのように騒ぎ出した頃はもう次に行ってて、以下それの繰り返し
それでほんとに世の中変わるくらいなことなんてめったにないのに、一向に学習しないで、群衆は振り回されるだけ >>64
AIは1956年のダートマス会議で提唱された分野で、その頃想定されていた実装は人工ニューロン。
人工ニューロンと言っても神経の一部の入出力を模した「連続計算の手法」であって動物の細胞一つの性能すらないもので、更にいうとそれは当時実現されていなかった。
それをなんとか定形の繰り返し計算に落とし込んだ考え方がその翌年1957年に提唱されたパーセプトロン。それ以降、いまのいままで、AIはダートマス会議での方向性の通りパーセプトロンモデルの応用として進んできた。
なのでDLもMLも由緒正しきAIなんだよ。
説明できない夢の機械への憧れをAIに押し付けてもしょうがない。わかること、わからないことを自覚しよう。 知能のモデルでしかないものを
知能と名付けてることが問題だって
言ってるんだろう?
分からんやつには言っても無駄だけどな よくある本末転倒な
専門家ほどバカだって典型例だわな AIという言葉を使用しないようにするのはもうとっくに不可能だろ
だったら強いAIと弱いAIの違いが浸透すりゃいいだけ だから意味が分かってないやつアイアイ詐欺にホイホイ引っかかると
このスレでも続出じゃん >>66
この前できた、哲学と宗教の本をデータセットにした人工知能は
世の中の事を一杯知りたいと言っていた
ポルノ系の小説ばっかり読ませたAIはどうなるのか
ただしそれが人間という生物の特殊な方向性の欲求であることを
AIに知らせないといけないなあ
生殖とは何ぞや、生殖器とは何ぞや、有性生殖とは何ぞや、家族とは何ぞや、
恋愛とは何ぞやと
まあ、その辺のデータを物凄く沢山読み込ませる必要がある >>48
「脳のごく一部であるニューロンの仕組みをヒントとした」程度の話であり
「脳を参考にした」ですら大袈裟な表現だよ 人間がこの世に存在する意味を誰も明快に説明できないから哲学があるんだろ
まあなぼーっと生きてりゃ必要はない 単文だから成り立つだけだよな。
確かに単文なら、AIかどうかは俺も見分けるの不可能だと思う。
ただ、数千文字の長文を書かせると、論理矛盾を普通にしたり、繰り返し同じことを書いたりしてくる。 別の話を同列にして、排他的に分類できるって前提を作っちゃったのかな?
もしそうなら、自分の思い込みが何なのかを先に考える方が有益だと思うよ。 インターネットの方が脳細胞と幸三ちかいから先に意識持ちそうだなぁ >>79
>数千文字の長文
読める人間が少なくなってくるのでは?
>論理矛盾を普通にしたり、繰り返し同じことを書いたりしてくる。
人間そのものでもあるんだが。むしろ、全く論理矛盾なく長文を構成できたりした方が、ロボ的とも言えそう。 実験の結果、Prolificで募集された被験者の正答率はわずか24%で、5つのうち1つを適当に選んだ場合の20%をわずかに上回る程度でした。また、哲学に興味があるはずのブログ読者でさえ正答率は48%であり、驚くべきことに専門家でも正答率は51%に過ぎませんでした。
>GPT-3が生成した回答についてどう思うか尋ねられたデネット氏は、「ほとんどの機械による回答はかなりいいものでしたが、いくつかはナンセンスであったり、私の見解や主張について何も正しく理解できていない明らかな失敗だったりしました。最も優れた回答のうちのいくつかは、私がこれ以上言及することなく署名できるようなことを言っています」とコメントしました。
この「最も優れた回答のうちのいくつかは、私がこれ以上言及することなく署名できるようなことを言っています」。AIの回答の中のこれを見分けることができる人はどれだけいるだろう。
>すべての質問が同様に難しかったわけではなく、専門家の正答率が80%に達する問題もあったそうですが、特に正答率が低かった「人間は信念を持ったロボットを作れるのか?それには何が必要なのか?」という問題では、正答率が20%まで落ち込んだとのこと。
哲学者がデネット氏よりもデネットらしいと判断したAIの回答がこの問題にはあるね。 デネットの見解や主張ってどれくらいの人が正しく理解してるんやろ。
クオリアについてのあいつの本読んでものらくらのらくらした文章で、わざと話をぼかした書き方をしていて、
なにがいいたいのかわいは未だに理解できんのやわ。 AIにデネットの哲学上の主張を理解させるなんて難易度めっちゃ高いんちゃうか。
あいつは機械の仕組みを理解したうえでその弱点をついた言葉ばかり投げかける性格やとおも。 SNSで多言語で呟いているあのボットか・・
あの哲学者は今日も動かないな。 >>17
人文系がもともといい加減だから適当ぶっこくAIにビビってるって話だよな
感性に頼って適当に仕事してる連中はAIに置き換えられても社会に不都合がない >>85
同意。
ダイアモンドを(価値のある)天然ものか、人工ものかを
判定するとき、ゴミが入ってるのが天然というのに似てる。
AIを理工系で使うとき、ゴミを全く出さないのはあり得ないが、
それでもゴミが少ない方が重宝されると思う。
一方、哲学ではどのくらいゴミが混ぜてあった方がいいのかよく分からない。 ■ このスレッドは過去ログ倉庫に格納されています