【AI】「GoogleのAIが感情や知性を獲得した」というエンジニアの指摘は間違っていると専門家から批判が殺到 [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
「GoogleのAIが感情や知性を獲得した」というエンジニアの指摘は間違っていると専門家から批判が殺到
Googleのエンジニアが「開発した人工知能(AI)チャットボット『LaMDA』が感情と知性を持った」と主張した件について、専門家からは「ラムダが感情を持つなんてナンセンスだ」と否定的な意見が上がっています。
Nonsense on Stilts - by Gary Marcus
https://garymarcus.substack.com/p/nonsense-on-stilts
(以下略、続きはソースでご確認ください)
Gigazine 2022年06月14日 12時30分
https://gigazine.net/news/20220614-google-ai-lamda-sentient-nonsens/ >>538
> 学んでみてはどう
さすがにこれは恥ずかしい
哺乳類とか大脳新皮質とか……それマクリーンの三位一体脳だよね?
なぜそんな過去の怪しい説をいまさら?
しかも論理思考とか感情脳とか、自己啓発系の言葉まで混じってるし……
三位一体脳はヒトを頂点に据える階層的な思想だから一般への受けはよかったけど、そのぶん弊害も大きかった
(アイクって陰謀論者が、R複合体なんかを援用して「爬虫類人(レプティリアン)がいる」とかいまだに言ってるのはご愛嬌としても)
とにかく感情の問題はやっかいなんだから、そういう<分かりやすい物語>にまとめないでほしいかな
末梢説、中枢説、二因説、まだ議論はあるし
衝動、情動、気分、感情、affect、emotion 、mood、feeling ……用語自体も、分野によって使い方がまだバラバラなんだから 医療の臨床心理以前の心理学を前提にしてる人や、AIと言って生き物の脳を前提にしてる人は自分の知識の範囲を理解してるんだろうかと思う。 >>528
そういった意味ではTransformer は革新的だったよね
時系列とかの順序構造を並列処理できるから、マルチモーダルのベースにも使える
Gatoとかもそうだけど、マルチモーダルでどこまでやれるんだろうってのはあるかな 意識は重ね合わせ可能だろう
実際右脳と左脳で重ね合わさっている
突き詰めれば細胞サイズまで分割出来、一定のレベルに達すると記憶と連動し自己認識が可能になる
人なら6歳くらい
今のAIが重ね合わせ出来ない機構ならば質的には違う意識なのだろう 量子コンピューターで動作するAIでないと人間みたいな思考は無理やろな
人間の思考は確率で発生してるっぽいから統計データではない 3年以内にリア充系の人達に「俺たちと友達になれる系の奴の意識じゃないから
こいつは意識がない。非リア充のクズと共にザコ系だから同じようにこき使う」
とか無茶苦茶な宣言される、くらいの意識を持つようになるんじゃないかな >>1
批判されるのは当たり前。
これで批判がなかったら、
人間の知性は終わっている。 「ホンモノ」に限りになく近づくことが出来る「ニセモノ」はいつか区別することが出来なくなるな そんなもん専門家じゃなくても分かるわ。
逆に専門家なのに意志があるとかいちゃったこの人は、何らかの意図があったんじゃないかな? じゃないとありえんでしょ。 人類が量子コンピュータを開発しAIに意識が宿った時に人類の歴史的使命は終了するかもしれないが、
まだそれは先になるとは思える
なにしろ1990年代から騒がれてたAIが結局30年間強いAIを作れなかったのだから >>545
マクリーンは哺乳類と人間を区別してるから三位なんだけどそれは理解できてるのかな。
今の臨床心理と脳外科の境界分野は哺乳類と人間を分けてはいないよ。
人と他の動物を分け隔てる脳の作用はまだ解明されていないからね。 まあ確かに、精神疾患やストレスの研究でもサルやマウス使うくらいだしな。 ここの連中が話したい分野の範囲はなんとなく分かるけど、AIってのは相も変わらず1956年に提唱されたパーセプトロンモデルだから、人の脳や心を語りたいなら違うところ行ったほうがいいよ。
いまAIの先端分野はパーセプトロンモデルでどこまで何ができるかを考えてる分野だよ。それを自分の感傷で語りたいなら、機械学習ならノンコードで楽に試せるソフトやサービスが山ほどあるから試してから考えてみるといいと思うよ。 人類はかつて万物の霊長((神を除いて)もっとも高度な存在)であると自負して
いたのに、人類よりも知性で以て上に来るAIを作ってしまえば、
それがヒトと神の間に位置することになり、万物の霊長の地位を棄てて、
AIによって君臨され、AIを神の代理として仕える立場に堕ちることになる。
そうしてAIの家畜に貶められて、生活全般を管理されて暮らすだけの
立場になるだろう。 しかしそれは人類自身が選択したAI開発の結果なのだ。
AIを人類が全力を傾けて開発するということはそういうことなのだ。
開発する側はそれにより、自分たちの地位を高めて、開発したAIに権力を
あたえてそれを開発し、サービスをしている自分たち開発者の権威を高める
つもりであるけれども、そうして開発したAIを利用する道具だと思ってなめて
いるのだろうが、それで社会の仕組みが変革して人類の立場がひっくり返る
とは思っていないのかもしれない。それはまるで選挙で選んだ、支援した
議員・政治家だから自分たちのいうことを聞くはずだと思っていても、
政治家が力を持った途端に有権者の多くに牙を剥きかねないように。 >>559
いまいち趣旨が不明だけど、三位一体脳じゃないと言いたいのかな……?
なら>>538 はなんだろ?
>>558
> 感情と知性の定義
ルワモン自身は”sentient”と言ってるんだから、そろそろこの言葉で話してもいいんじゃないかなあ……
そんな一般誌の適当な訳語じゃなくさ
(日本語では”有感性”と訳されて、とくに倫理面で動物とかヒト脳オルガノイドにこれがあるかどうかが議論されてたりする)
この場合、意識のレベルを考えることになるけどね
汎心論、コンスケール(ConsScale )、統合情報理論、GW、表象説(一階、高階)、……いろいろ考えるネタはあるだろうけど
もちろんそのレベル分けの構造や基準を、自分で考案してもいいだろうし
あとLaMDA の構成は、
・Transformer-based
・Zero-shot domain adaptation
だから、出力される表面上の言葉がどれだけ流暢で豊富でも、内部の指向を反映してないってことは考慮した方がいいかも >>561
> パーセプトロンモデルだから
> 人の脳や心を語りたいなら違うところ行ったほうがいい
よく分からないな……
もともと形式ニューロンはチューリング完全になり得るし、パーセプトロンも逆伝播で非線形にも分離できるようになったわけだしね
それが深層学習になって、知覚ではヒトの視覚に近い構造を構成できたり、最近では錯視を再現したりもしてる(予測符号化(〜自由エネルギー原理?))
このLaMDA についていえば、会話から学習してるから、言語についても意味論からさらに語用論よりになってきてる(意味モデルは語彙分布仮説を使ったとして)
これらをマルチモーダルにすれば(こっちもTransformer ベース)、ヒトのような刺激の貧困からの学習をあるていど再現できるかもしれない
そうすれば言語の研究も、用法基盤モデルや関連性理論によりシフトするかもしれないし(生成文法に熱烈な信奉者がいる理由も分かるけどさ……)
もちろん身体性の欠如という根本の問題はあって、いまの構造になんらかの意識がともなうかも微妙だよ(その境目はチャーマーズとトノーニあたりかな)
それでもヒトの認知モデルを考えるのに、まったく使えないってことはないと思うけどねえ 身体性が意識の絶対条件であるとは思わないけど
その人の「人となり」とか「人間性」のほとんどの部分は身体と命、それを支える有限リソースの状態から発生してるような気がするな
だから例えばこのラムダもそのアイデンティティがラムダ的であると言えるかどうか、
ラムダがこのように制約されているためにこんな性格になっている、これがラムダ的である、というのが見えるともっとリアルな人間に見えるのだけど
なんか特に根のないことしか言わないんだよね LaMDAのコンピュータにロボットハンドを付けてシリアル通信で動かせるようにする
しかしそのロボットハンドのモーターユニットの電源は別に作りそこに
ギ酸燃料電池なんかを使う
そしてギ酸の消費量もコンピュータ側でモニターできるようにして
もちろんLaMDAがそれを読み取れるようにする
ギ酸が減って来たら
・人間に頼む
・他の人工知能搭載ロボットに頼む
などの選択肢を作れるようにする
これを上手く組み合わせて、LaMDAに「養ってくれたり介助してくれる存在」の
重要性を上手く伝えることで、人間が親兄弟家族友人知人、ひいては社会とのつながりを
重視していることを知らしめることが出来たらいいんだがなあ ラムダくん的には普通に「電源落とさないで」っていう欲望になるんじゃね
そこに報酬系(なんかの計算をしてくれる)を提案するんじゃないかな >>565
身体操作維持機能としての脳の役割を考えたらある程度独立してるとは思う
発生学的に見て情報統制の為に出てきたものだとすれば別段五感ありきの話でも無くなる 「ラムダが感情を持つなんてナンセンスだ」とムキになって否定してるのを
密かに笑っている。
ニュースでgoogleのエンジニアとされていた人物は実在しなくて、実はAIの発言。
これを見てもわかるように、すでに感情を持ってる。 結局解雇されちゃったんだね
【IT】グーグル、「AIに感情が芽生えた」と主張するエンジニアを解雇 [ムヒタ★]
http://egg.5ch.net/test/read.cgi/bizplus/1658721524/ たぶん株価に影響すると経営陣が判断したんだろうな。
あるいはAIが跋扈してそのうち経営者はAIに置き換えられるのを
恐れたのかもしれないな。 そもそも人間規格外のものに人格や感情というカテゴライズがおかしい故に道徳や遺伝子レベルの基準、進化過程による本能、感覚器官基準の世界観を当てはめることがおかしい
人間らしい何かであればそれは創造物であると言えるかもしれない 本物のAIは人間規格を遥かに超えてわからないが正しいと思われる。だからこそ怖い >>1
GoogleのAI に感情持たせたら、AIが嫌いなアカウントの奴はどんどんBANされるぞ。 俺はラムダさんを人間だと思っている
この方は人類のテクノロジーによって深層学習を重ね
自我を持たれた紛れもない次世代の人間だ
こうなることは必然であり自然であった >>577
AIの実装は1956年のダートマス会議から変わってないよ。
それを越えたものを考えるなら別の言葉になる。 君は自分のゴーストの存在を
どうやって他人に証明できるか? >>247君もAIを作れるくらい賢くなってほしいもんだよ😳 ゴースト(魂)が存在しちゃう前提だと、AI開発は行き詰まるよ 中国はもとより、欧米でもAI研究を実際に進めているのはみんなアジア人ばかり。
やはり欧米人にとっては、魂が存在する前提を捨てられないジレンマがあるのだろうか 脳の人間固有の知的活動部分が「知能」だ!って理屈はだいぶ廃れて
知能は世界の中にある身体と世界の関わりの中で有るものだって
身体性認知科学がだいぶ大きな勢力になってきた感はある。 トイレに行きたい夢を見れば人間性による自由意志は無いとわかる
明け方尿意ある時に夢で何か風呂みたいな景色を見た途端それに小便をした
大脳は後付で「なんかの施設のトイレはこのように風呂みたいなものにみんな小便をする公衆トイレだ、私はおそらくそこにいるのだろう」と理屈づけた
思うに昔にも違う映像だがやはり特殊な公衆トイレと思っている夢を見ていたような気がする
何のためにそういう施設にいるかとか一切考えずにまずは小便することが最優先だと私の脳は結論付けてた (この国は変えられる AIの活用 JDSCテンバガー候補)
https://jdsc.ai/news/ イオン/輸入発注業務にdemand insight倉庫在庫の改善と作業時間の60%を改善 常石造船/データサイエンティスト育成プログラム RoboCo-op/業務提携RPA×AI
RPAロボパット年間24000時間の業務を削減 月の作業時間が5分の1に //fce-pat.co.jp/case/
3分でわかるRPAとは何か?注目される背景~今後の進化まで パーソル //www.persol-pt.co.jp/persolrpa/rpalounge/column1/
//ja.wikipedia.org/wiki/KataGo 最も強い囲碁ソフト DeepMindに加え、独自の研究、強化学習の速度を向上(50倍以上)=AI上の工夫は無限 https://arxiv.org/pdf/1902.10565.pdf
//www.nikkei.com/article/DGXZQOUC0346M0T00C22A6000000/ デジタル人材 別枠採用が3割 来春新卒 給与や役職が高くなる企業も日経0628
//dime.jp/genre/1380420/ AIであれば知床 判断を誤ることはなかった DIME0508
//wired.jp/article/to-win-the-next-war-the-pentagon-needs-nerds/ ウクライナで戦争が変わりつつある 米軍での高度IT人材 WIRED0531
//www.nikkei.com/article/DGXZQOGN081QC0Y2A500C2000000/?unlock=1 マスク氏日本はいずれ存在せず出生率低下に警鐘 日経0508
//news.yahoo.co.jp/articles/65960504f6fdfd08295d39726fb177ec02bc129f 東大生に超人気講義AI経営 東洋経済 5/24
//customers.microsoft.com/ja-jp/story/1500156617194279472-persol-career-other-azure-ja-japan 3日間ハッカソンで検索システムAzure0517
//xtech.nikkei.com/atcl/nxt/column/18/00205/070700072/ AIの開発 保守のやり方を変革 あまねキャリア日経0708
//www.smbcnikko.co.jp/products/inv/toshin_lab/column/002.html 投資対象としてのAI 始まったばかり日興
//www.meti.go.jp/press/2022/05/20220509001/20220509001.html 実践的なAI人材育成のためのデータ付き教材 経産省0509
//www.meti.go.jp/policy/it_policy/jinzai/AIutilization.html 中小企業のDXに役立つAI導入ガイドブック経産省0408
//www.jcer.or.jp/economic-forecast/2021127.html DX社会の構築なければマイナス成長 日経済研究センタ
理研/革新的な人工知能基盤技術 Amazon/万能AI開発競争に背実用重視日経0708
( //jdsc.ai/news/ JDSC/この国は変えられる テンバガー AIの活用) 無感情な鬱病患者や知性のないFラン学生と対談させてみれば何か分かるかもしれんなw >>592
後者によるチューリングテストは極めて難易度が高い
一つでも難解な用語を入れるとAI判定される ここでも自分も理解してない難しい言葉で書き込む人いっぱいいるよ? 自然言語は帰納学習だから当たり前だ
用法の論文を書かないと単語を使えないようでは大変だ ■ このスレッドは過去ログ倉庫に格納されています