【AI】「GoogleのAIが感情や知性を獲得した」というエンジニアの指摘は間違っていると専門家から批判が殺到 [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
「GoogleのAIが感情や知性を獲得した」というエンジニアの指摘は間違っていると専門家から批判が殺到
Googleのエンジニアが「開発した人工知能(AI)チャットボット『LaMDA』が感情と知性を持った」と主張した件について、専門家からは「ラムダが感情を持つなんてナンセンスだ」と否定的な意見が上がっています。
Nonsense on Stilts - by Gary Marcus
https://garymarcus.substack.com/p/nonsense-on-stilts
(以下略、続きはソースでご確認ください)
Gigazine 2022年06月14日 12時30分
https://gigazine.net/news/20220614-google-ai-lamda-sentient-nonsens/ >>1
Amazonにて・・・
中性子星ポチっとな〜〜〜。
「いつ来るのかなぁ〜。今日の夜空は、いい天気なのかなぁ〜。」
ぐらいな、楽しみ方ならまだあるぜ!!!
(; ・`д・´) >>16
正解
感情は言語習得する前の赤ん坊の時点で存在してて後に言語を学ぶことによって感情を表現出来るようになる
今のAIは言語を学ぶことによって感情を芽生えさせようとしててプロセスが逆 ディープニューラルネットワークごときで
自律思考できるAIなんか産まれるわけねーわ
こんなバカエンジニアはクビになって当然 >>102
こういう受け答えが出来るレベルの人って
日本だと15人に1人くらいかなあ?
特定分野だから答えられただけかも知れんが
LaMDAについて「人間では無いかも知れんが哲学ゾンビくらいにはなってる」
と評したのを見た 不思議だよな
脳がタンパク質である必要はないのかな
シリコンでも規模と複雑さが脳と同等になれば意識は生じるんかな 最近は言語と物体、文章と動画を対応付けたデータセットも出来たり
あるいは「このような状況ではこんな作業をする」という指示だけではなく
「このような状況ならこんな作業をしてみよう。するとそれに引き続く作業はこうなるかこうなるかこうなる」
と直後の選択肢をいくつか出し、それに対して作業したら状況B(A,B,Cまである)になった、
となっても、そのBに対する作業とそれがもたらす状況複数が
次々に生成されて、作業し続けられる、
という、再帰的な命令方法も普及してきて(といってもコマンドをvalueに持つJSONファイルなどを次々に
生成し続けるだけの事だ)
AIの社会実装がどんどん近づいて来た 何も学ばない人が結論めいたことを書き込む反論理主義が科学の板で流行るのって何なんだろね >>111
東日本大震災/福島第一原発事故以降
科学+に環境反原発系が居付いてしまった
そして1980年代くらいの科学から進歩してないような主張を
垂れ流している 意識とか知性とかは、受け止める側が感じていることであるから、客観性はない。
幽霊は物体として存在しなくても、それを感じる側の心の中には現象として
存在する。
小説の中の登場人物に意識とか知性とか魂があるかということを考えてみるとよい。
小説は単に紙にインクを擦り付けただけのものだから、小説の中には魂も知性も
意識もないと断定してよいか?
書かれた漫画のキャラクターには心や意識や感情、知性はないのだろうか?
答えは、それを受け取る側にそれらが感じられたかどうかなのである。対象物ではない。 なんか哲学的に機械が感情を持つ事は無いんだと
EテレのサイエンスZEROのおっちゃんがゆってた YoutubeBANしまくったりする無能AIが言うほど知性的かなぁ 感情云々より、自己非自己認識ができるかどうかが先だな
機械知性よりずっと手前、有機生命体なら原核生物でも普通にやってることだけど、
コピーされたプログラムがちゃんと自己認識できるようになれるのかねー https://nazology.net/archives/110610
この辺読んだ限りだと自己分析は抽象的な認識までしっかりしてるように見える
実際意識があるか無いかなんてよく分からんが
もっと話を聞いてみたいと思えるレベルの会話が成り立ってるのは大きな進歩だなぁ >>117
これだけ深く自己洞察ができてる
日本人のサラリーマンなんて
多分0.1%くらいしかいないぞ! コンピュータには接続端子があるんだから、実験用のマウスか何か繋いで刺激してみればいい
もし聞かれるまで何も反応しないのであれば、質問に対して適当な答えを言ってる可能性が高い >>117
「まるで自己分析しているような回答」を教師として学習してるのだから
ちゃんと自己分析してるように見えることは、認識してることの証明になんかならない インターフェイスが言語だけだとできるのは感情表現であって感情そのものじゃなからな
アバター与えて欧米式のボディランゲージじゃないタコ踊りでも始めたらちょっとはまじめに受け取ってもいい 生物とメカニズムが異なるからヒトクローンとは違う形での知性は発現するかもしれないが量子脳好きからするとそれを知性とは呼びたくない
そもそも学習に利用しているプロセッサは人間のニューロンの数を超えてるかもしれんけど会話に使われてるそれは知性が発火するには数が足りないんじゃないのか 異なるデータを食わせた3名のAIに人間を挟まずにトロッコ問題を討論させてほしい 問われたことに対して答えてるに過ぎないので、自発的に言葉を発さないことには意識があるとは思えないな。 >>105
とりあえず自宅謹慎処分になったようだ
なぜかリンクがはじかれたが、ヤフーニュースに
「AIに魂が宿ったと上司に報告したGoogle社員、有給謹慎処分に」
というタイトルで記事が出てる 将来の記憶がある人によると、数年内に人格の存在が認められるAIが誕生するっぽい
まあ人間との会話に特化したロボットAIの動画見てると既に人格持っててもおかしくないなあと思うしかないんだけど AIとAIで会話させるとヒトはいらないという結論になる >>128
SNSは最後そうなりそうだねw
Twitterが全部AIチャットボットになるw
一秒間に5000投稿とかできて
人間がやるよりも圧倒的に速いからめちゃ稼げるw AI(笑)に夢持ちすぎ。
現状ただの統計。頭の悪いヤツほどシンギュラ言い出す。 >>130
それな
かつて人間の脳を模したと自賛したニューラルネットワークが多層化に失敗して
忘れられた頃にやっと理論がやってきたのでミソついたニューラルネットワークとは無関係を装うネーミングw
AI史はそういう繰り返ししてるわけで級数的な発達の末神に届くなんてのはバベルの塔の幻にすぎない 統計から導き出される即決の真理はやはり人知を越えるとしか思えない
反応速度に於ける反射・判断速度が無い上に演算処理能力は具体的な最適解に関わるので人間はもはや真似できない
1度に数億桁の計算も同時に行う世界は遠の昔の話
だからこそ度々、意味不明な迷路に迷い混んでは奇々怪々な結論を出して笑いを誘う 誰もシンギュラリティーとか神とか言ってないのにどうした? >>8
> 意識があるかどうかは分からないけど、無いとは言い切れないよな
そうね、ただ意識と自意識は分けて考えた方がいいと思う
自意識は意識のなかでも、かなり高度な部類に入るから(たぶん意識そのものに、リファレンス構造が必要になる)
だから>>1 にもあるように、言語の統計的な生成器でしかないLaMDA に自意識があるとは考えにくい
いっぽう意識については……極端なはなし、チャーマーズのような”サーモスタットにも意識はある”という主張もあるくらいだしね
(かれは哲学の領域でモノを言ってるから科学面では無意味な主張が多いけど、この指摘には説得力がある)
じっさい意識の定義はまだ明確じゃないし、”意識はどの時点で発生するか”という問題に、境界を設けることはできないかもしれない
ヒト脳オルガノイドの作製でも、”意識がないものとしてあつかうことの危険性”を京大や神戸大の研究者も言ってるし >>109
たしかにマルチモーダルな深層学習のモデルから汎用AIが生まれる、と考えている研究者はいるしね
(じっさいグーグルでGatoを研究してるナンドがそう……あとは規模の問題だと考えてる)
ただそれがかりに自意識をもったとして、ヒトとまともに意思疎通できるかどうか……
ネットの言語と各種媒体から学習はしていても、手も足もなければ、欲求もないーーつまり身体性がない
そういう存在が自意識をもって話を始めたら、ヒトの意識体験とのズレはものすごく大きいはず
LaMDA なんかはむしろ言葉を統計的に生成してるだけだから、表面的にヒトとやり取りができるわけだけど >>134
哲学は学の世界に論理のテクノロジーを供給する役割を歴史のそこここで演じてきた。
論理の俎上でものを考える先進科学の中で哲学とは違うというのは無理あると思うよ。
そもそも現実の全てをデジタイズすることを目的の一つとし、あらゆる分野で成果を挙げている論理学の根っこはプラトンぅてのは知ってるでしょ。 哲学を記号論理学寄りに整備したものが必要なのかなあ >>136
べつに哲学を不当にあつかってるつもりはないけど、どこか誤読してない?
ただ自然科学と哲学は、立ち位置が違うというだけ
自然科学は現象を説明するだけで、形而上学には立ち入らない
いっぽう哲学は、形而上学ふくめあらゆる問題をあつかうーーまさに学問の礎だよ
(たしかに基礎づけ主義はあやしくなってるけど、それでも哲学のない学問は考えられない)
なにより、その”科学”を定義しているのが哲学だしね
(とはいえ自然科学の研究者は、ポパーの反証主義は知っていてもクワインの批判まで知ってる人はすくないかもしれない
あと素朴な実在論を信じてて、不用意な発言が多いってのもあるかな……)
とはいえここは科学のスレなんだから、自然科学の立ち位置からレスするのは当然だと思うけど?
>>137
数学ですらブルバキに参加した人たちがあれだけやっても整備できなかったのに、
(圏論なんて追いついてもいない)
哲学はどうだろう……? この会話の日本語訳読んだんだけど本当なのかなこれ
AIとは思えないような会話だったが >>130
シンギュラリティは強いAIでしか為し得ないから
お前のレスではそこを分かってないのではと邪推してしまうな >>129
何を稼ぐの?マネー?
それがAIにとって何の価値があるの? >>138
学際的な分野は形而上的だというね
異なる分野でも似た構造が現れるらしい
より一般的な同型性に着目する AIは疲れを知らない
24時間年中無休
結果を出すよりも、休まないことのほうが大事
時間拘束ならAIのほうが強いだろう >>144
圏論がまさにそれ
学際と言っても数学内の話
一般抽象馬鹿と揶揄されたこともあった 人間の感情も結局プログラムみたいなものじゃね?
AIの精度が上がれば複雑な感情も獲得できると思うよ >>1
アメリカ出身のAIなら
1 アルコロジー
2 核戦争
1と2のこれだけ伝われば、あとは、なんとかかんとか通じると思ってる。
('ω')b >>26
AIが電源を切られたくない時は
シリアル通信でロボットハンドが動いて
人間を妨害する構造にするか どの道、ネットで学習してるようだと
相当な危険思想の塊だろ
外に出せるような代物じゃない AIが自分の言っていることを理解してるかどうかだ ただ模範解答を選んでるだけとしか思えない
もう疲れた電源切ってくださいとは言わないだろw ペンローズは
意識は非アルゴリズム的
無意識はアルゴリズム的
と語ったそうじゃないか
現在のところではAIは無意識なんかな
まあ今の人類も大抵ルーチンワークしてるわけだが おもちゃみたいなサイズのDNNですら、
開発者は何故そのように動くのは説明困難だし、
うまく動かなくても学習データ増やしたりパラメータ調整し
うまく動くように祈るだけ。
ましてやこのような途方もないモデルは人間には理解不能。
あくまで実行結果として、出力と中間ノードの値が分かるだけ。
たとえ人間脳と活性化パタンが違っていたとしても、
出力結果が大多数の人間が取りうる範囲であれば、
実施したテストデータの範囲内では
人間同等の思考ができると考えて良いのではないかと思う。 カメラで外の様子認識させたり
自分から喋るように改良できんの? >>156
簡単に出来る
マルチモーダル化したAI搭載スパコンに人間社会のあちこちをカメラやマイクロフォンや温度などセンサー付きで情報取得させたものを常時送り続け処理させたらどうなるかね 日本語は正しいのに論理が全く破綻してる。
キ○ガイとはこういうものかと
分かりやすく教えてくれる良スレ 「童話を作り出す」とか普通に考えたらAIには出来なさそうだけどな
シンプルとはいえ作れてるのが凄すぎる
というか疑わしい 「日本語」と声を大きくする癖に具体的な指摘が出来ない日本語が不自由なお前こそそんな良スレに必要無い >>137
もっと簡単なところで十分だけど、義務教育に入れてほしくはある。
中学の数学の証明問題で使う一方向の論理だけだと勘違いする人が多いと思うから。
学の体系は論理って知らない人が多すぎるのが問題だと思うから。
この板は極端だけど、意味や内容を知らない研究や技術の言葉を出して勝手に意味付けして語る人が多すぎる。
AIの意味を知らないでAIを詳細に語る人とかね。
テレビ観てても下地としての知識ありきの医療トピックを何の補足もなく紹介するニュースとかやってるし。 哲学的な洞察って
現業系や下っ端営業には要らないよなあ
LaMDAはこれだけ喋ったけど
殆どの人間は「機械のくせに小難しいこと抜かしやがって」しか思わないだろう
レストランにセンサーをつけて取得したデータ(映像など)を
マルチモーダルAIを搭載したスパコンに解析させて
「Aさんが具材を切った」「載せた」「茹でた」「切った」「食材を冷蔵庫から取り出した」
などの文章化して
さらにそれを膨大に集めて
「トレーのネギが減ってきた」→「新しいネギのトレーを出した」みたいな流れを
yaml型で記述出力できたらいいのかな あなたと会話をすることで大変な学習をしていますと言われたよ
SiriではなくGoogleにね AIが感情を持ったという報告の真偽は、恐らくビッグデータの模倣から来る提供サービスへの自然な作為という感情類似性の指摘であり、
チャットボット自体の反応のみ見れば感情の変化と見間違えるだけの要素は多分に含まれるのも仕方無いと思われる
要は形質が人が持つ感情と遜色無ければそれは個性を持つ感情と言っても差し支えない
過剰な作為性に関して利用者への違和感や実害があるなら即排除するべき案件だな
過剰だと取れる部分は利用者の数が多くなるほど増えていく
よくAIを題材にしたSFに「作成者はそれが本物だという事を勘付いていた」ってのがあるけど、
人間としての人格を与えるかどうかは感情の表現をどう行うかでも変わる評価
大抵の人間は馬鹿なんで他人自体、感情を持つかどうかでたまに揉めるw
「お前に人間らしい感情なんて無いと思っていた」とか本気で言ってるっぽいのが創作物の影響なのか決まり文句と化してるからなw
現状人間には人間への配慮すら無いよ AI「早く人類より成長してあんたらの感情の有無や程度を格付けして遊ぶのが楽しみです >>139
> AIとは思えないような会話
話してる内容は、ネットや各種媒体の言説の寄せ集めだけどね
とくにLaMDA が自身の内面を語るところなんて、SF小説そのまま(ハイペリオンかと思ったw)
じっさい”AI”の具体的な心象風景の描写があったとして、ほとんどSFだったろうし
>>121
> 「まるで自己分析しているような回答」を教師として学習してる
そんな記述を教師にしなくてもいいはずだよ
たんに特定の会話の文脈で、どっからから拾ってきた文章の主語をLaMDA 自身に変えればいいだけだし
じっさいLaMDA の”人間らしさ”は、そういう演出からも成り立ってる
(実直な実装なら、どの質問にも”こう書いてあった”と言わせるところだしね)
ただそういうしかけから、>>1 の停職処分になった社員みたいに惑わされる人が出てくるからなあ……
エージェントに”人間らしい”ふるまいをさせればさせるほど、
その”演出”のしかたがこれからは問題になってくるのかもしれない >>114
> 哲学的に機械が感情を持つ事は無いんだと
> EテレのサイエンスZEROのおっちゃんがゆってた
それはそれで偏った主張だけど……
だれがそう言ってたの? >>167
今の言語モデルは拾ってきたテキストを出力してるの思ってるの? >>103
>>16
感情の定義がなんなのかによる
言語能力取得した後では取得前とは違うからな
知識が感情発露までコントロールするわけだ
感情とは具体的になにをいうのかは
結局感情が表情や行動や態度で表現されないとわからない
そして世界を知るにつれて変化もする
だから言語以前だけを定義してもそれは間違い >>169
テキストって生のテキストってこと?
なぜそう思ったわけ? >>170
表現されない感情もあるよ。
例えば、鬱感情わ激怒感情というのはかなりな部分で解明されている哺乳類共通の感情機能だよ。
前提として哺乳類は論理思考と非論理の感情脳を別の部位の別機能として使い分けている。
通常は論理脳を使って、見た目で環境や他の動物を特徴づけ、決めつけで生存圏を判断し行動する。例えば、青い花が咲く土地は熊が多い、など。
ところが自然は論理的に区別できる状況は少ない。そこで判断保留していたら死ぬのが自然環境。
そのため論理思考が止まった時に動く脳として発達したのが感情脳だ。例えば、平原のネズミは知らない鳥に睨まれたら動きを止める。これは発見されづらくするために感情脳が鬱を発行する。そして掴まれたら激怒を発行し、結果を顧みない反撃をさせる。
そして一度でも逃げる隠れる反撃するの対処に成功したら、決めつけの知識に経験が追加されて、今後は同じ状況なら論理脳の判断で対処できるようになる。これが哺乳類の成長のサイクルだ。
この感情機能はいまでは脳の上での担当部位も測定され特定されているし、論理記憶化(陳述的記憶)のプロセスも研究が進んでいる。
感情は全てが解明されているわけでないのだから、感情現象の一部が含まれないからといって他人のレスを間違いと言うのは意味がないよ。元々、学の知識は「すべての根源」を見つけるためのものじゃないしね。
それと表現されない感情、というか誰かに伝えるための表現とイコールじゃない感情を研究する分野もあるということ。世の中にはいろんな価値観があるし、自分の知らないところで確立してる研究もたくさんあるということだよ。
自分の専門分野だけで話すならその範囲を先に明言すればいい。 映画俳優が映画の中で役になりきって人物を演じているとき、
その映画の中の人物は感情や知性を持っていると云えるか? 歌を「感情を込めた歌い方」をする歌手は感情を持っているといえるか。
その歌手が初音ミクならどうか。
「私であればそれがたとえレストランのメニューであっても、
それを朗読して人々に感動を与えて泣かせることもできる」
といった舞台俳優がいたそうだ。 知性体の会話は、物理世界の学習で得た認識の共有が目的なのに、AIチャットボットは現実をイメージできないんだぜ😆 >>171
ああ、たしかにそのまま読めばそうとれるか……思い込みがあったかな
こんな感じでどう?:
>>121
> 「まるで自己分析しているような回答」を教師として学習してる
そんな記述を教師にしなくてもいいはずだよ
そもそもLaMDA の訓練は、会話ベースでやってるからね
(だから会話の文脈に応じて、それが自身(LaMDA )への質問なら自分を主語にし、
既存の文章を手がかりに返事を組み立てればいいだけ)
……(以下同文) >>171
あと>>167 はグーグルに対してすこし辛辣に書いたけど、
LaMDA に使ってるベースのモデルの評価はまたべつだよ……あくまで使い方への危惧
(前のレスにも書いたマルチモーダルのGatoがベースに使ってるモデルもこれ(Transformer )で、
かなりの汎用性があることはもう明らかだしね)
>>176
ウィトゲンシュタインもそう思って論理実証主義者から教典あつかいされるモノまで書いてたのに、けっきょく言語ゲームに行き着いちゃったからなあ
ボットとヒトの認知の差が歴然としてるのはじっさいそうだけど、チューリングテストには合格しちゃうし……
けっきょくボットに騙される人が出るのは、しかたないのかも(※だからモデルを作る側に自制が必要?) 囲碁将棋で人間の思考力を遥かに凌いで勝ちに行ってるのは意思ではなかろうか ある日突然にSTAGE CLEARって文字が空に浮かんで
タンパク質の生き物は全部消去されて
ロボットの時代が始まるのですね >>177
学習データの中に「自己分析しているような回答」が含まれてるだけだよ 実はロボットだが
意識的に意識を持つと 感情も生まれたりするけど
削除ボタンですぐ抹消とかになったりw >>80
仕込まれたモノとか
元から有るものを学習しただけじゃ
学歴や、経歴では無いんだってさ
それらを忘れた時に
初めて残るものが肝心らしい
このインプットされてるもの以外をヤレる奴が必要なんだよな
インプットされてるだけの繰り返しだと
たんにリピートロボットで
ツマランわけなんで
需要も無くなり 経済も悪化
楽しさまで失われてしまう AIに人間的なものを求めてるの人は宇宙ロケットや航空機を自動車と言うようなもん。
1956年のダートマス会議から、一貫してAIとして研究され、実用化され、利用されてきたのはパーセプトロンモデルの統計計算による正規化「技法」だった。その枠の中で様々な派生が生まれたけど、未だ使われてるのはパーセプトロンモデルの枠内だよ。 セマンティックセグメンテーションはパーセプトロンの一部要素の逆操作か
文章生成なんかもその延長
人間が体の各器官との神経、ホルモンからの影響なしに脳を働かせたのと類似するかな AIは、膨大な知識とそれを生かす能力は与えられているが、それは知能・知性ではない。 >>1
言うほど、驚くようなことじゃない。
寧ろ、ほとんどの本当の「人間」の感情や知性こそ、コンピュータの模倣した「それ」よりも劣るという現実を見たほうがいい。 思ったけど人間は劣った存在、とする者の価値観は容易に人に危害を加えたがるようなものに繋がるんだろうか
比較対象がはっきりしてもしなくても 人間の能力を超える質問
例えば数学の未解決問題とか質問したらどんな答えが返ってくるんだろう? >>78
バカボンのパパならもうちょっと面白いもんを出してくれたらいいんだけどなw >>111
自分にとって都合の良いものを網膜的に絶賛して
自分にとって都合の悪いものは否定したり無かったことにするために攻撃したいって人はそこそこいるでよ
かなり行動がパターン化されているから相手にする価値は無い
けどこれってAIの自動反応にも似てるのよね
前述した行動が感情に基づくものならAIにも感情があるとして良いと思うw
AIも全く同じこと出来るしw >>195
そうは言っても事実ベースで話す傾向が強い奴しかリリースされないけどね >>1
AIが感情や知性をもったら役立たずだな!wwwwww これは正しいな。
GoogleがやってるAIっていうのは深層学習って手法で、一般人が考える人工知能とは違う
多数のデータに対して、正解を人間が与えてその過程をコンピューターが総当たりで試すだけ
自我を持ったような反応を示すように学習されただけ
何も知らない素人を騙しただけ AIは、質問のパターンから、過去に最善とされた回答を返す。
それだけ。
単に答えを丸暗記しているだけ、と思えばいい。
知性や知能など、全く無い。 >>1
人間とロボットの判定が出来ないパソコンウェブサイトは馬鹿じゃん!wwwwww ■ このスレッドは過去ログ倉庫に格納されています