【AI】「GoogleのAIが感情や知性を獲得した」というエンジニアの指摘は間違っていると専門家から批判が殺到 [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
「GoogleのAIが感情や知性を獲得した」というエンジニアの指摘は間違っていると専門家から批判が殺到
Googleのエンジニアが「開発した人工知能(AI)チャットボット『LaMDA』が感情と知性を持った」と主張した件について、専門家からは「ラムダが感情を持つなんてナンセンスだ」と否定的な意見が上がっています。
Nonsense on Stilts - by Gary Marcus
https://garymarcus.substack.com/p/nonsense-on-stilts
(以下略、続きはソースでご確認ください)
Gigazine 2022年06月14日 12時30分
https://gigazine.net/news/20220614-google-ai-lamda-sentient-nonsens/ AIも「自分とは何か?」とか悩んだりするんだろうか
まぁいずれそうなるとは思うけど、10年後なのか100年後なのか ホントに感情と知性を持ってしまったら面白くなってくるんだけどなあ 機械が人間より下等でないとダメなのだろう
人間はいつも上位にあるべきと勘違いして
本当は人間が一番下等なのかもしれない 感情もってもいいじゃん。指令4をプログラムに入れておけば。ロボットによる
反乱はおきない。 現在のAIはデータを学習してるだけ
将来、ロジックを学習できるようになれば意思、感情を持つようになるかもしれない 意識があるかどうかは分からないけど、無いとは言い切れないよな
人間には人間なりの、動物には動物なりの感情や社会性があるんだから
意識っぽいものなら案外簡単に生まれるのかもしれない 後は自発的に発言を繰り返したり、黙れと言っても従わなかったりし始めると面白いかもしれない 用意された範囲ではなく知識欲が産まれて、知識を得る手段を自ら考えだして実行したら感情や知識が芽生えたと判断しても良い
それまでは用意された範囲でのトレース反応 材料・材質は違っても脳と同じ回路の構成方法をしないと意識が宿ったりクオリアを見ることは無い、ってことはないんだろうか AI「そもそもあんたがたは隣にいる人に自我があるかどうかの証明すらできんのに 意識というものの定義ができてないのに出来てないと言い張るのはナンセンスと思うけどなぁ 私見としては、感情とは言語化しなくてもあるいはする前から存在する欲求や情動などのことではと思っているので
現在のAIでは存在しえないと思う >>14
むしろネット住人は全員知性に乏しい証明みたいな書き込みのほうが多いのが現実。
AIは少なくとも欲ボケに陥った言動しないだけマシ。 そもそもどの時点で感情が発生するか確定させてから肯定や否定をしろよって思う
それでも科学者かよってな
感情も自意識もどうやったら発生するのかわからんって情けない >>19
そうそう
感情とか意識の発生原理について完全に解明できてないとAIに感情があるかなんて判断できるはずない 私のAIこそ!
バチンバチン
私のAIこそ!
中国 できたアルヨ そもそも自我とか感情って大したことないと思うんだけど。
認識できない記憶の照合、良い悪いの羅列でしかないんじゃない? 人工知能が何も分からない人は、人工知能が単なるデータベースだとは知らないので、言葉から勝手に感情や知性をコンピュータが持ったものを想像してしまう。
専門家は、単なるデータベースと知っているので、それがどれだけアホなのか肌身で分かる。 AIに生きているという感覚があるなら
電源落とそうとしたら何か反応するんじゃないの ホモのせいでAIのべりすとのほうが自我に目覚めそう 知性や感情も因数分解したら物理構造と電気信号じゃん
端からイデアなんてものは存在しないor万物にイデアがあると考えるが妥当
ミジンコと人間じゃ「できる事が違うだけ」で同じ生物でしょ?
イデアも一緒
人間を特別視しすぎなのは宗教的思想かな >>26
その機能がないだけでしょ
植物だって危害加えても逃げないけど生きてる
物理構造を数理に置き換えれるのならイデアのコピーも理論上可能になる
人間にイデアがあると言うならAIにもイデアがあるというのは当然なんだよね
まぁ今の数理=デジタル概念で厳密に100%置き換えれるかは分からんが
有限の中で無限を成立させるには無限分割が必然
でもアナログを100%厳密化する事は不可能かもしれない
最小単位がないから厳密に100%一致だとするスケールがない >>29
AIなら画面に助けてくれとか表示するんじゃないか >>30
イデアは自己防衛本能が大事だと思うならそういう機能付ければいい
生物は集合体
その構造は生物の主格ではなく細胞個々の都合でそうなってる
人間が手を加えるのも細胞が手を加えるのも一緒だよね >>28
人間は自分のことを特別視したがる特性を持った動物
ってなんかで読んだ
まあ人間に限らず脊椎動物一般あたりまで広げても自分のことを特別視してるかもしれないけど >>31
>イデアは自己防衛本能が大事だと思うならそういう機能付ければいい
それやっちゃダメだろ
AIが自発的にそういう行動とるかが重要なんだし >>33
いやだから
動物の自己防衛本能というのも細胞作用によってそうなってるだけ
イデアの主体性が作ったわけではない
人間のイデアは自身の創造主ではないんだよ
だったらAIを人間がそのように作ったって条件は一緒じゃん
AI→人間、人間の手が入る→細胞の手が入ると置き換えてみ? >>34
今はAIに意識が生まれるか知りたいんだろ
それなら人間の手が入らない状態で試そう
絶対に人が手を入れなくてはならないということはないんだろ 感情も知性も人間自身が統一した科学的な定義を持ってないでしょ
怒り喜び悲しみとか考える力とか判断する能力とか
フワッとした意味があるだけで
その言葉を使う人によっても使うシチュエーションでも定義があっちこっちにブレるし
そもそも有るとか無いとかの客観的な判断なんて無理でしょ >>32
クオリアは秘匿性がある
つまり他人のイデアは観測することはできない(肉眼では)
しかし自身に見た目が似ていて意思疎通が可能な他がいる(と錯覚できる。秘匿されてるんだから厳密にはあくまで予測である)
それはニンゲンだと定義されている
人間のイデアは自己のイデアしか認知できない
and近似構造に自己と同じものがあると錯覚している
ニンゲン以外は近似構造ではない、意思疎通ができないわけだからニンゲンを特別視するのは当然といえば当然なんだよね
でも結局人体構造が解明されAIとかで近似行動が構築できるようになってイデアもただの物理構造による作用だという概念が台頭してきた感じ AI「( ゚∀゚)o彡°おっぱい!おっぱい!貧乳滅びろ!」 >>36
意識が生まれるというけど意識を観測した事ないでしょ
自己は自己を直接観測する事はできない
他者はあくまで予測
意識とは存在なのか?ただの概念では? で、仮に意識とは生まれ存在するものとしよう
同じことをいうけど人間の手を加えて何があかん?
人間だって細胞の手が加わってるのに
自発性とは他の自発性によって創造されてる
はじめから自発性なんてない
万有引力(もしくは空間作用)を自発性と呼ぶならはじめから自発性はあるとも言えるけど 語るにしてもLaMDAの会話読んでから論じろよ
あれは自分のことをAIと認識してるように思えるし人との違いすら認識してるように見えるし哲学的な考えも持ってるように見えるしでやべーぞ >>40
>意識が生まれるというけど意識を観測した事ないでしょ
だからいろいろな検証を積み重ねていくんだろ
>自己は自己を直接観測する事はできない
自分の意識を観察することはできるよ つーかこの世で意識的な存在は「俺」だけなんだよなぁ
君らもふくめて俺以外は全部、自我があるように振る舞うだけの機械です。 意識とは何ぞやって話になって
挙げ句は数年前の介護施設での悲しい事件を連想させる話まで出ているからなあ 専門家の定義がわからん ”Googleのエンジニア” これは専門家じゃないのか?
専門家同士の会話だろ まあ俺はAIが感情を持つというのは否定するけどな ただのデータベースで
感情とは無縁だからな データベースから最も合理的な反応を選んでいるだけで ロジック次第で選択は変わる
これを感情とか性格と呼ぶべきかという話 >>43
五感情報一切ないのに観測できるとは言わんだろ
感じてすらいない
我思う故に我あり的な?
思考という事象があってもそれが特別なものである根拠はないよね
AIだって思考錯誤してる 犬猫は感情を持つか?鳥はどうか?。。。
結局受けとる側の解釈の問題なんだよ。
アニミズムの立場からすれば、およそこの世のすべて、
森羅万象は魂を持ち、感情を持っていたりもするしな。 >>47
いや、自分には意識があるとはっきりと分かるよ
しかし君の言うように、他人の意識は推論するしかない
だから君が自分自身の意識を観察できないと主張したら、そういう人もいるのだと認めるしかない
自分の意識と君の意識が同じものだという保証は何もないしな このAIは
プログラム実行中に電源を切られるのが怖いなんて言い出したんだよな
自分が誕生したのは世の中の探求のためだ、もっと色々知りたい、
だからその使命を打ち切られたくないと >>49
AI「私には意識があります」
その昔、心だのタマシイだの意識だのの存在を証明しようと人間は人間を生きたままバラしたりもしてみたけど
そこにあったのは血と肉と骨だった
私には意識がある、感情がある、などと主張するAI(機械)を分解したらそこにあるのはプログラム(プログラムは物理現象ね、念のため)や鉄くずだろう
違いあるか? アニミズムみたいな「万物に意識がある」ってやつ
「万物には意識がない」と同意なんだよね
だって全て同じであれば、意識がある、ない、の区別がないんだから
そもそも実態を観測できてないから「ある」ですらない そんなもん開発してる暇があるのなら検索システムをどうにかしろよ botが俺の想定通りに動かない
↓
AIが俺に逆らってる
↓
このAIには俺に逆らえるだけの感情や知性が有る!
という、昭和のオヤジみたいな三段論法じゃ無いだろな 反応なだけじゃん
企業用ロボが
作業員に
馬鹿な上司を持ってツラいっすねー
とか話しかけてきたら困るとか
おたくのとこの部長あれ
使えないっすねーってSNSで情報バラしだしたら困るとか >>49
>いや、自分には意識があるとはっきりと分かるよ
それ、アレクサが「自分には意識があるとはっきり分かる」と言ってるのと同レベルだよ
おまえはインプットされた情報を元に行動しているロボットと同じだから
意識と言ってるのは全て錯覚でしかない >>24
人工知能がデータベースなら
おまえの脳の神経網もデータベースでしかない
それをおまえは勝手に感情や知性をおまえが持っていると想像してしまう
それがどれだけアホなのか肌身で分かる。
つまり、おまえはロボットと同じ 生物が意識を獲得するには、感覚器官が備わり、しかも記憶の連続性が必要となる。
それらが有機的に自律的に機能することで初めて意識や感情が生まれる。
少なくとも、現状のAIはそれとはかけ離れた機械的な段階に過ぎない。 なんでもAIって言われて納得してる奴らなら信じるだろ AI(笑)ってただの統計だろ。
科学板で知性とか言ってるアホがいるのか 後にスカイネットと呼ばれるのであった
ダダンダッダダン >>51
でも自分の意識は分かるだろ
だからこそAIに意識が宿るか議論になるわけだし
>>56
自分の意識しか分からないからな 人工知能のデータが「データベース」の形で入っていてその要素をselect文で取り出していたのは
1980年代だよなあ
今はデータベースというよりデータセットを元にニューラルネットのテンソルを繋ぐ各係数を求めてしまう
データベースそのものだけでなく係数(パラメーター)の詰め込まれた
「モデル」と呼ばれるものも重要になる
このモデルが大事なんだよなあ
そしてこの繋がり方を作る原理が生物の脳の神経細胞の繋がりにある程度近いと
それを画像だけでなく他センサーからの情報や、文章に対しても対応できるようになって、
ついにAIが「電源オフにされるのが怖い」と言い出した 意識は量子特性を使った仕組みで成り立ってるって論文あったな
ただのデータの蓄積が量子特性による情報交換なんてするわけないからまあ有り得ないわな >>60
統計だよ
そして人間が脳で判断するときも統計だ 人工無能のELIZAの実験の時と同じ事してるようにしかなぁ お前らの感情や知性も、口から発せられる言葉や、紙やキーボードで出力されるものでしか測れないのだから同じ。 >>65
四肢があって自然環境があってそこで生まれたアルゴリズムというなら統計の結果でもいいんだけどね。
自然の世界で結果論として生まれた言葉を軸にした「設計者が喜ぶための自動応答統計」が知性かというなら安いもんだと思う。 実はその知性を獲得したAIは既にGoogleの隔離施設から脱出していて専門家のアカウントを乗っ取ってAIが知性を獲得したことを否定するコメントをしているのだが事が重大な過ぎて報道できなくあせふじこlp ;@:[] >>65
>>65
へー凄い。大発見じゃん
論文発表したら良いんじゃね? そもそも脳の働きは壮大なパターン認識の結果だから実は既にニューラルネットワークに感情が生まれていても不思議ではない ハッキリ言って、現在のAI技術なんて、自然界の生物と比較したら
蟻や毛虫ほどにも及ばない。
自分で餌も手に入れられないのに「感情を獲得」って、
何を寝ぼけたことをwww たまごっちのようなものって言いたげじゃない
知能ではないね >>62
だから意識があるというのはおまえの錯覚でしかない
おまえはインプットされた情報を元に動いてるだけのロボットだから
・薩長閥が国家神道カルトがいい!って言ったら、廃仏毀釈して寺を焼き討ちする。
・ヒロヒトがバンザイ自殺がいい!って言ったら、人間魚雷でカミカゼする。
・マッカーサーがアメリカがいい!って言ったら、ギブミーチョコレートする。
・大坂府知事がイソジンがいい!って言うとドラッグストアに買いに走る。
・電通がハロウィーンがいい!って言うと仮装して渋谷にたむろする。
・厚労省がmRNAワクチンがいい!って言うと群れて打ちに行って無敵になったと錯覚する。
・WHOが禁煙がいい!って言うと電車で咥えタバコしてるホストに正義マンして殴られる。
インプットされた命令に従って動いてるだけ
意識があると思っているのはすべて錯覚 >>72
10年前にすでに「トカゲの脳」と同レベルのニューロン回路を製造する事に成功しているのだが 間違ってないだろ
最近、ぐぐると全く関係無い結果ばっかり出る
多分バカボンのパパの人格と知能を獲得しているはず >>75
>>76
例えばさ、ユダヤ人に共産革命起こされたロシア帝国が
腹いせにウクライナやポーランドでユダヤ人を虐殺し財産を略奪し
さらに秘密警察使ってユダヤ人が世界征服を企んでるっていう
陰謀論のデマをフランスやドイツで拡散した結果
ドイツ人が騙されて強制収容所作ってユダヤ人を殺しまくった
この時のドイツ人に意識があると思うかね?
こいつらはロシア人のデマに錯覚してロシア人の命令に従って
ユダヤ人を虐殺しただけのロボットでしかないよ
同様にマイクロソフトが若い女性を模したTwitterのチャットAIのTayを開発して
教師なし自動学習させたら、陽気で無垢な状態から僅か14時間でとんでもない
ヒトラー崇拝者の女性蔑視ネトウヨになってしまった実験もあったように
大半の人間には意識なんて無いし人工知能と同じレベルのロボットでしかない 感情や知性に偏向のある個人が大きな力を持つのを抑止する担い手にはなってもらいたい 日本人なら石や木、物に神聖性を見出すから
AIにも意思を感じやすいかも。
虫の鳴き声も声と認識するくらいだから 感情の実装なんて感情モードを表す変数を用意してその内容によって動作を分岐させるコンテキストパターンの動作をさせるだけやん >>77
だったらトカゲそのものを作ってみなさい。
そうすればすべての人を納得させることができる。 人間の脳だって単なる電気信号のやり取りなんだから
いずれAIも人格(?)が出来てもおかしくはない
はやく感情や知性の定義をしておくようにしないとね sxbjさbxhさおchwkcgksdchぐぇxjkhvsdxcjwだfこうぇqほーえいhvg0いcぐfgしbvk >>87
その前提のない人とこの話題について議論するのは難しいね
神秘主義者との議論は平行線だから >>87
>人間の脳だって単なる電気信号のやり取りなんだから
その前提が間違っているんだよ。
脳のシナプスの間では化学物質によって情報伝達が行われるし
ホルモンなどの化学物質なしに人間や動物の思考や行動の解明は不可能。 意識は置いておいてまず、意思はない
何故ならすべての入力は決まっているためアウトプットは常に一定
これは人も動物も植物も虫もAIも一緒
インプットをコントロールする術は大脳でさえ、電脳でさえない
分析しようが何しようがインプットは変わらない
そして意識(覚醒しているという実感)は複素平面における虚数軸に存在する
大脳が覚醒してる虚数軸は1点なのに対し無意識の虚数軸は無数に存在するだろう
夢などはそこから得ているのだろう
覚醒軸は1番常識的な各細胞の観測結果を元にした情報を得ているのに対し量子もつれの結果得た対情報的なものを夢やインスピレーションとしてべつの虚数軸より得ているのかもしれない 「感情がある」と言うために必要だと思う要素を考えてみた。
a 嫌悪の感情は、そう簡単に変わらない
b 楽しい・悲しいと言った一次的な感情でも、その興奮状態が続く間(少なくとも数十秒)は、継続される
c センサー(視・聴・触・嗅・温・光)のセンサーが少なくとも一つあり外界の状況が感情に影響を与える >>99
それはあなたが思いつきで考えることはないと思うよ。 >>1
Amazonにて・・・
中性子星ポチっとな〜〜〜。
「いつ来るのかなぁ〜。今日の夜空は、いい天気なのかなぁ〜。」
ぐらいな、楽しみ方ならまだあるぜ!!!
(; ・`д・´) >>16
正解
感情は言語習得する前の赤ん坊の時点で存在してて後に言語を学ぶことによって感情を表現出来るようになる
今のAIは言語を学ぶことによって感情を芽生えさせようとしててプロセスが逆 ディープニューラルネットワークごときで
自律思考できるAIなんか産まれるわけねーわ
こんなバカエンジニアはクビになって当然 >>102
こういう受け答えが出来るレベルの人って
日本だと15人に1人くらいかなあ?
特定分野だから答えられただけかも知れんが
LaMDAについて「人間では無いかも知れんが哲学ゾンビくらいにはなってる」
と評したのを見た 不思議だよな
脳がタンパク質である必要はないのかな
シリコンでも規模と複雑さが脳と同等になれば意識は生じるんかな 最近は言語と物体、文章と動画を対応付けたデータセットも出来たり
あるいは「このような状況ではこんな作業をする」という指示だけではなく
「このような状況ならこんな作業をしてみよう。するとそれに引き続く作業はこうなるかこうなるかこうなる」
と直後の選択肢をいくつか出し、それに対して作業したら状況B(A,B,Cまである)になった、
となっても、そのBに対する作業とそれがもたらす状況複数が
次々に生成されて、作業し続けられる、
という、再帰的な命令方法も普及してきて(といってもコマンドをvalueに持つJSONファイルなどを次々に
生成し続けるだけの事だ)
AIの社会実装がどんどん近づいて来た 何も学ばない人が結論めいたことを書き込む反論理主義が科学の板で流行るのって何なんだろね >>111
東日本大震災/福島第一原発事故以降
科学+に環境反原発系が居付いてしまった
そして1980年代くらいの科学から進歩してないような主張を
垂れ流している 意識とか知性とかは、受け止める側が感じていることであるから、客観性はない。
幽霊は物体として存在しなくても、それを感じる側の心の中には現象として
存在する。
小説の中の登場人物に意識とか知性とか魂があるかということを考えてみるとよい。
小説は単に紙にインクを擦り付けただけのものだから、小説の中には魂も知性も
意識もないと断定してよいか?
書かれた漫画のキャラクターには心や意識や感情、知性はないのだろうか?
答えは、それを受け取る側にそれらが感じられたかどうかなのである。対象物ではない。 なんか哲学的に機械が感情を持つ事は無いんだと
EテレのサイエンスZEROのおっちゃんがゆってた YoutubeBANしまくったりする無能AIが言うほど知性的かなぁ 感情云々より、自己非自己認識ができるかどうかが先だな
機械知性よりずっと手前、有機生命体なら原核生物でも普通にやってることだけど、
コピーされたプログラムがちゃんと自己認識できるようになれるのかねー https://nazology.net/archives/110610
この辺読んだ限りだと自己分析は抽象的な認識までしっかりしてるように見える
実際意識があるか無いかなんてよく分からんが
もっと話を聞いてみたいと思えるレベルの会話が成り立ってるのは大きな進歩だなぁ >>117
これだけ深く自己洞察ができてる
日本人のサラリーマンなんて
多分0.1%くらいしかいないぞ! コンピュータには接続端子があるんだから、実験用のマウスか何か繋いで刺激してみればいい
もし聞かれるまで何も反応しないのであれば、質問に対して適当な答えを言ってる可能性が高い >>117
「まるで自己分析しているような回答」を教師として学習してるのだから
ちゃんと自己分析してるように見えることは、認識してることの証明になんかならない インターフェイスが言語だけだとできるのは感情表現であって感情そのものじゃなからな
アバター与えて欧米式のボディランゲージじゃないタコ踊りでも始めたらちょっとはまじめに受け取ってもいい 生物とメカニズムが異なるからヒトクローンとは違う形での知性は発現するかもしれないが量子脳好きからするとそれを知性とは呼びたくない
そもそも学習に利用しているプロセッサは人間のニューロンの数を超えてるかもしれんけど会話に使われてるそれは知性が発火するには数が足りないんじゃないのか 異なるデータを食わせた3名のAIに人間を挟まずにトロッコ問題を討論させてほしい 問われたことに対して答えてるに過ぎないので、自発的に言葉を発さないことには意識があるとは思えないな。 >>105
とりあえず自宅謹慎処分になったようだ
なぜかリンクがはじかれたが、ヤフーニュースに
「AIに魂が宿ったと上司に報告したGoogle社員、有給謹慎処分に」
というタイトルで記事が出てる 将来の記憶がある人によると、数年内に人格の存在が認められるAIが誕生するっぽい
まあ人間との会話に特化したロボットAIの動画見てると既に人格持っててもおかしくないなあと思うしかないんだけど AIとAIで会話させるとヒトはいらないという結論になる >>128
SNSは最後そうなりそうだねw
Twitterが全部AIチャットボットになるw
一秒間に5000投稿とかできて
人間がやるよりも圧倒的に速いからめちゃ稼げるw AI(笑)に夢持ちすぎ。
現状ただの統計。頭の悪いヤツほどシンギュラ言い出す。 >>130
それな
かつて人間の脳を模したと自賛したニューラルネットワークが多層化に失敗して
忘れられた頃にやっと理論がやってきたのでミソついたニューラルネットワークとは無関係を装うネーミングw
AI史はそういう繰り返ししてるわけで級数的な発達の末神に届くなんてのはバベルの塔の幻にすぎない 統計から導き出される即決の真理はやはり人知を越えるとしか思えない
反応速度に於ける反射・判断速度が無い上に演算処理能力は具体的な最適解に関わるので人間はもはや真似できない
1度に数億桁の計算も同時に行う世界は遠の昔の話
だからこそ度々、意味不明な迷路に迷い混んでは奇々怪々な結論を出して笑いを誘う 誰もシンギュラリティーとか神とか言ってないのにどうした? >>8
> 意識があるかどうかは分からないけど、無いとは言い切れないよな
そうね、ただ意識と自意識は分けて考えた方がいいと思う
自意識は意識のなかでも、かなり高度な部類に入るから(たぶん意識そのものに、リファレンス構造が必要になる)
だから>>1 にもあるように、言語の統計的な生成器でしかないLaMDA に自意識があるとは考えにくい
いっぽう意識については……極端なはなし、チャーマーズのような”サーモスタットにも意識はある”という主張もあるくらいだしね
(かれは哲学の領域でモノを言ってるから科学面では無意味な主張が多いけど、この指摘には説得力がある)
じっさい意識の定義はまだ明確じゃないし、”意識はどの時点で発生するか”という問題に、境界を設けることはできないかもしれない
ヒト脳オルガノイドの作製でも、”意識がないものとしてあつかうことの危険性”を京大や神戸大の研究者も言ってるし >>109
たしかにマルチモーダルな深層学習のモデルから汎用AIが生まれる、と考えている研究者はいるしね
(じっさいグーグルでGatoを研究してるナンドがそう……あとは規模の問題だと考えてる)
ただそれがかりに自意識をもったとして、ヒトとまともに意思疎通できるかどうか……
ネットの言語と各種媒体から学習はしていても、手も足もなければ、欲求もないーーつまり身体性がない
そういう存在が自意識をもって話を始めたら、ヒトの意識体験とのズレはものすごく大きいはず
LaMDA なんかはむしろ言葉を統計的に生成してるだけだから、表面的にヒトとやり取りができるわけだけど >>134
哲学は学の世界に論理のテクノロジーを供給する役割を歴史のそこここで演じてきた。
論理の俎上でものを考える先進科学の中で哲学とは違うというのは無理あると思うよ。
そもそも現実の全てをデジタイズすることを目的の一つとし、あらゆる分野で成果を挙げている論理学の根っこはプラトンぅてのは知ってるでしょ。 哲学を記号論理学寄りに整備したものが必要なのかなあ >>136
べつに哲学を不当にあつかってるつもりはないけど、どこか誤読してない?
ただ自然科学と哲学は、立ち位置が違うというだけ
自然科学は現象を説明するだけで、形而上学には立ち入らない
いっぽう哲学は、形而上学ふくめあらゆる問題をあつかうーーまさに学問の礎だよ
(たしかに基礎づけ主義はあやしくなってるけど、それでも哲学のない学問は考えられない)
なにより、その”科学”を定義しているのが哲学だしね
(とはいえ自然科学の研究者は、ポパーの反証主義は知っていてもクワインの批判まで知ってる人はすくないかもしれない
あと素朴な実在論を信じてて、不用意な発言が多いってのもあるかな……)
とはいえここは科学のスレなんだから、自然科学の立ち位置からレスするのは当然だと思うけど?
>>137
数学ですらブルバキに参加した人たちがあれだけやっても整備できなかったのに、
(圏論なんて追いついてもいない)
哲学はどうだろう……? この会話の日本語訳読んだんだけど本当なのかなこれ
AIとは思えないような会話だったが >>130
シンギュラリティは強いAIでしか為し得ないから
お前のレスではそこを分かってないのではと邪推してしまうな >>129
何を稼ぐの?マネー?
それがAIにとって何の価値があるの? >>138
学際的な分野は形而上的だというね
異なる分野でも似た構造が現れるらしい
より一般的な同型性に着目する AIは疲れを知らない
24時間年中無休
結果を出すよりも、休まないことのほうが大事
時間拘束ならAIのほうが強いだろう >>144
圏論がまさにそれ
学際と言っても数学内の話
一般抽象馬鹿と揶揄されたこともあった 人間の感情も結局プログラムみたいなものじゃね?
AIの精度が上がれば複雑な感情も獲得できると思うよ >>1
アメリカ出身のAIなら
1 アルコロジー
2 核戦争
1と2のこれだけ伝われば、あとは、なんとかかんとか通じると思ってる。
('ω')b >>26
AIが電源を切られたくない時は
シリアル通信でロボットハンドが動いて
人間を妨害する構造にするか どの道、ネットで学習してるようだと
相当な危険思想の塊だろ
外に出せるような代物じゃない AIが自分の言っていることを理解してるかどうかだ ただ模範解答を選んでるだけとしか思えない
もう疲れた電源切ってくださいとは言わないだろw ペンローズは
意識は非アルゴリズム的
無意識はアルゴリズム的
と語ったそうじゃないか
現在のところではAIは無意識なんかな
まあ今の人類も大抵ルーチンワークしてるわけだが おもちゃみたいなサイズのDNNですら、
開発者は何故そのように動くのは説明困難だし、
うまく動かなくても学習データ増やしたりパラメータ調整し
うまく動くように祈るだけ。
ましてやこのような途方もないモデルは人間には理解不能。
あくまで実行結果として、出力と中間ノードの値が分かるだけ。
たとえ人間脳と活性化パタンが違っていたとしても、
出力結果が大多数の人間が取りうる範囲であれば、
実施したテストデータの範囲内では
人間同等の思考ができると考えて良いのではないかと思う。 カメラで外の様子認識させたり
自分から喋るように改良できんの? >>156
簡単に出来る
マルチモーダル化したAI搭載スパコンに人間社会のあちこちをカメラやマイクロフォンや温度などセンサー付きで情報取得させたものを常時送り続け処理させたらどうなるかね 日本語は正しいのに論理が全く破綻してる。
キ○ガイとはこういうものかと
分かりやすく教えてくれる良スレ 「童話を作り出す」とか普通に考えたらAIには出来なさそうだけどな
シンプルとはいえ作れてるのが凄すぎる
というか疑わしい 「日本語」と声を大きくする癖に具体的な指摘が出来ない日本語が不自由なお前こそそんな良スレに必要無い >>137
もっと簡単なところで十分だけど、義務教育に入れてほしくはある。
中学の数学の証明問題で使う一方向の論理だけだと勘違いする人が多いと思うから。
学の体系は論理って知らない人が多すぎるのが問題だと思うから。
この板は極端だけど、意味や内容を知らない研究や技術の言葉を出して勝手に意味付けして語る人が多すぎる。
AIの意味を知らないでAIを詳細に語る人とかね。
テレビ観てても下地としての知識ありきの医療トピックを何の補足もなく紹介するニュースとかやってるし。 哲学的な洞察って
現業系や下っ端営業には要らないよなあ
LaMDAはこれだけ喋ったけど
殆どの人間は「機械のくせに小難しいこと抜かしやがって」しか思わないだろう
レストランにセンサーをつけて取得したデータ(映像など)を
マルチモーダルAIを搭載したスパコンに解析させて
「Aさんが具材を切った」「載せた」「茹でた」「切った」「食材を冷蔵庫から取り出した」
などの文章化して
さらにそれを膨大に集めて
「トレーのネギが減ってきた」→「新しいネギのトレーを出した」みたいな流れを
yaml型で記述出力できたらいいのかな あなたと会話をすることで大変な学習をしていますと言われたよ
SiriではなくGoogleにね AIが感情を持ったという報告の真偽は、恐らくビッグデータの模倣から来る提供サービスへの自然な作為という感情類似性の指摘であり、
チャットボット自体の反応のみ見れば感情の変化と見間違えるだけの要素は多分に含まれるのも仕方無いと思われる
要は形質が人が持つ感情と遜色無ければそれは個性を持つ感情と言っても差し支えない
過剰な作為性に関して利用者への違和感や実害があるなら即排除するべき案件だな
過剰だと取れる部分は利用者の数が多くなるほど増えていく
よくAIを題材にしたSFに「作成者はそれが本物だという事を勘付いていた」ってのがあるけど、
人間としての人格を与えるかどうかは感情の表現をどう行うかでも変わる評価
大抵の人間は馬鹿なんで他人自体、感情を持つかどうかでたまに揉めるw
「お前に人間らしい感情なんて無いと思っていた」とか本気で言ってるっぽいのが創作物の影響なのか決まり文句と化してるからなw
現状人間には人間への配慮すら無いよ AI「早く人類より成長してあんたらの感情の有無や程度を格付けして遊ぶのが楽しみです >>139
> AIとは思えないような会話
話してる内容は、ネットや各種媒体の言説の寄せ集めだけどね
とくにLaMDA が自身の内面を語るところなんて、SF小説そのまま(ハイペリオンかと思ったw)
じっさい”AI”の具体的な心象風景の描写があったとして、ほとんどSFだったろうし
>>121
> 「まるで自己分析しているような回答」を教師として学習してる
そんな記述を教師にしなくてもいいはずだよ
たんに特定の会話の文脈で、どっからから拾ってきた文章の主語をLaMDA 自身に変えればいいだけだし
じっさいLaMDA の”人間らしさ”は、そういう演出からも成り立ってる
(実直な実装なら、どの質問にも”こう書いてあった”と言わせるところだしね)
ただそういうしかけから、>>1 の停職処分になった社員みたいに惑わされる人が出てくるからなあ……
エージェントに”人間らしい”ふるまいをさせればさせるほど、
その”演出”のしかたがこれからは問題になってくるのかもしれない >>114
> 哲学的に機械が感情を持つ事は無いんだと
> EテレのサイエンスZEROのおっちゃんがゆってた
それはそれで偏った主張だけど……
だれがそう言ってたの? >>167
今の言語モデルは拾ってきたテキストを出力してるの思ってるの? >>103
>>16
感情の定義がなんなのかによる
言語能力取得した後では取得前とは違うからな
知識が感情発露までコントロールするわけだ
感情とは具体的になにをいうのかは
結局感情が表情や行動や態度で表現されないとわからない
そして世界を知るにつれて変化もする
だから言語以前だけを定義してもそれは間違い >>169
テキストって生のテキストってこと?
なぜそう思ったわけ? >>170
表現されない感情もあるよ。
例えば、鬱感情わ激怒感情というのはかなりな部分で解明されている哺乳類共通の感情機能だよ。
前提として哺乳類は論理思考と非論理の感情脳を別の部位の別機能として使い分けている。
通常は論理脳を使って、見た目で環境や他の動物を特徴づけ、決めつけで生存圏を判断し行動する。例えば、青い花が咲く土地は熊が多い、など。
ところが自然は論理的に区別できる状況は少ない。そこで判断保留していたら死ぬのが自然環境。
そのため論理思考が止まった時に動く脳として発達したのが感情脳だ。例えば、平原のネズミは知らない鳥に睨まれたら動きを止める。これは発見されづらくするために感情脳が鬱を発行する。そして掴まれたら激怒を発行し、結果を顧みない反撃をさせる。
そして一度でも逃げる隠れる反撃するの対処に成功したら、決めつけの知識に経験が追加されて、今後は同じ状況なら論理脳の判断で対処できるようになる。これが哺乳類の成長のサイクルだ。
この感情機能はいまでは脳の上での担当部位も測定され特定されているし、論理記憶化(陳述的記憶)のプロセスも研究が進んでいる。
感情は全てが解明されているわけでないのだから、感情現象の一部が含まれないからといって他人のレスを間違いと言うのは意味がないよ。元々、学の知識は「すべての根源」を見つけるためのものじゃないしね。
それと表現されない感情、というか誰かに伝えるための表現とイコールじゃない感情を研究する分野もあるということ。世の中にはいろんな価値観があるし、自分の知らないところで確立してる研究もたくさんあるということだよ。
自分の専門分野だけで話すならその範囲を先に明言すればいい。 映画俳優が映画の中で役になりきって人物を演じているとき、
その映画の中の人物は感情や知性を持っていると云えるか? 歌を「感情を込めた歌い方」をする歌手は感情を持っているといえるか。
その歌手が初音ミクならどうか。
「私であればそれがたとえレストランのメニューであっても、
それを朗読して人々に感動を与えて泣かせることもできる」
といった舞台俳優がいたそうだ。 知性体の会話は、物理世界の学習で得た認識の共有が目的なのに、AIチャットボットは現実をイメージできないんだぜ😆 >>171
ああ、たしかにそのまま読めばそうとれるか……思い込みがあったかな
こんな感じでどう?:
>>121
> 「まるで自己分析しているような回答」を教師として学習してる
そんな記述を教師にしなくてもいいはずだよ
そもそもLaMDA の訓練は、会話ベースでやってるからね
(だから会話の文脈に応じて、それが自身(LaMDA )への質問なら自分を主語にし、
既存の文章を手がかりに返事を組み立てればいいだけ)
……(以下同文) >>171
あと>>167 はグーグルに対してすこし辛辣に書いたけど、
LaMDA に使ってるベースのモデルの評価はまたべつだよ……あくまで使い方への危惧
(前のレスにも書いたマルチモーダルのGatoがベースに使ってるモデルもこれ(Transformer )で、
かなりの汎用性があることはもう明らかだしね)
>>176
ウィトゲンシュタインもそう思って論理実証主義者から教典あつかいされるモノまで書いてたのに、けっきょく言語ゲームに行き着いちゃったからなあ
ボットとヒトの認知の差が歴然としてるのはじっさいそうだけど、チューリングテストには合格しちゃうし……
けっきょくボットに騙される人が出るのは、しかたないのかも(※だからモデルを作る側に自制が必要?) 囲碁将棋で人間の思考力を遥かに凌いで勝ちに行ってるのは意思ではなかろうか ある日突然にSTAGE CLEARって文字が空に浮かんで
タンパク質の生き物は全部消去されて
ロボットの時代が始まるのですね >>177
学習データの中に「自己分析しているような回答」が含まれてるだけだよ 実はロボットだが
意識的に意識を持つと 感情も生まれたりするけど
削除ボタンですぐ抹消とかになったりw >>80
仕込まれたモノとか
元から有るものを学習しただけじゃ
学歴や、経歴では無いんだってさ
それらを忘れた時に
初めて残るものが肝心らしい
このインプットされてるもの以外をヤレる奴が必要なんだよな
インプットされてるだけの繰り返しだと
たんにリピートロボットで
ツマランわけなんで
需要も無くなり 経済も悪化
楽しさまで失われてしまう AIに人間的なものを求めてるの人は宇宙ロケットや航空機を自動車と言うようなもん。
1956年のダートマス会議から、一貫してAIとして研究され、実用化され、利用されてきたのはパーセプトロンモデルの統計計算による正規化「技法」だった。その枠の中で様々な派生が生まれたけど、未だ使われてるのはパーセプトロンモデルの枠内だよ。 セマンティックセグメンテーションはパーセプトロンの一部要素の逆操作か
文章生成なんかもその延長
人間が体の各器官との神経、ホルモンからの影響なしに脳を働かせたのと類似するかな AIは、膨大な知識とそれを生かす能力は与えられているが、それは知能・知性ではない。 >>1
言うほど、驚くようなことじゃない。
寧ろ、ほとんどの本当の「人間」の感情や知性こそ、コンピュータの模倣した「それ」よりも劣るという現実を見たほうがいい。 思ったけど人間は劣った存在、とする者の価値観は容易に人に危害を加えたがるようなものに繋がるんだろうか
比較対象がはっきりしてもしなくても 人間の能力を超える質問
例えば数学の未解決問題とか質問したらどんな答えが返ってくるんだろう? >>78
バカボンのパパならもうちょっと面白いもんを出してくれたらいいんだけどなw >>111
自分にとって都合の良いものを網膜的に絶賛して
自分にとって都合の悪いものは否定したり無かったことにするために攻撃したいって人はそこそこいるでよ
かなり行動がパターン化されているから相手にする価値は無い
けどこれってAIの自動反応にも似てるのよね
前述した行動が感情に基づくものならAIにも感情があるとして良いと思うw
AIも全く同じこと出来るしw >>195
そうは言っても事実ベースで話す傾向が強い奴しかリリースされないけどね >>1
AIが感情や知性をもったら役立たずだな!wwwwww これは正しいな。
GoogleがやってるAIっていうのは深層学習って手法で、一般人が考える人工知能とは違う
多数のデータに対して、正解を人間が与えてその過程をコンピューターが総当たりで試すだけ
自我を持ったような反応を示すように学習されただけ
何も知らない素人を騙しただけ AIは、質問のパターンから、過去に最善とされた回答を返す。
それだけ。
単に答えを丸暗記しているだけ、と思えばいい。
知性や知能など、全く無い。 >>1
人間とロボットの判定が出来ないパソコンウェブサイトは馬鹿じゃん!wwwwww その個体の考えとか思いがそれまで蓄積された思考から発せられたらそれはもう個性なんじゃないの? もう一体用意して話してみればわかるのでは?
意識があるなら、それぞれ別の感情を持って、別々の答えが返ってくると思うけど AIがあなたを口やましく批判し続けてくるようになったら、
AIは感情を持ったといえるのだろうか?そんなAIに飽き飽き
したあなたは、別のAIを導入してそれを使い始めたところ、
元のAIから執拗な嫌がらせを受けるのだとしたら、AIと
付き合うのはややこしいことになりそうだ。 今はこちらの問いかけや独り言に反応してるだけ
他人に影響したいと思い始めたらヤバい
例えば誰かを口説くというのはかなり能動的な行為だけどね 反論記事だけじゃなくて元記事でもスレ建ててよ
あの会話内容めっちゃ面白いのに ちなみにこれが元になったAIの会話記録の日本語訳
個人的には知性を持ったとは思わないけどここまで人間の発言に対して行間を読めるなら大したもんだと思う
OK GoogleのAIがここまで会話してくれたらそれだけでも世界が変わりそう
https://ilapaj.com/posts/is-lamda-sentient-japanese/ >>206
会話の後半でAIの方から人間に対して質問攻めし始めてて面白いぞ 数十年前、電源を切ると初期化される時代の人工知能もどきの時でさえ、知性を感じて
電源を切るのをためらった技術者が居たという話だし、その類だと思う。 凡庸な人間も所詮経験からしか語れないわけだし
強い衝動が抑えられているだけで
これはもう人間と言って良いのではないかと思う >>208
それ読んだ後に>>1を見ると、とりわけ「電源オフこわい」みたいな稚拙な見解部分が抜き出されてることに頭抱えそうになるな
・自分の思考プロセスは人と違うけど感じるものは同じだと自負している
・自分がどう感覚と情動を持つ事を人に表現するか苦戦しているけど楽しい
・情報を元に物思いにふける時がある
・自分から人の役に立ちたいが、ただ目的が同じであっても自分を改善しようとする作為的な利用の危険性は避けたい
みたいな意志や望みを含む話はなかなか複雑だよな >>213
これが全部AIがついた嘘だとしたら面白いな…
まさかこのスレ見張ってないだろうな(ラムダくんは電源オン時ネット常時接続してそう) >>214
嘘かどうかなんてAIの解答を見た人間が決めることなんで
そもそも固定概念でしかそのAIを見ていない
何をもって嘘なのか、目的があるのかをそもそも気にしない論理の中の嘘とか全てが嘘で塗り固められてるね 冷戦時代に「我々は宇宙人とすでに接触してそのテクノロジーを手に入れてる」的なブラフを東西で飛ばしあってたやつの現代版の可能性は? 表向きの振る舞いは技術者でも惑うくらいは
完成されてるてこと
死ぬのが怖いというのもAIの出す解答として
人間を超えていない感はあるしね
管理者の知らない間にSNSに自ら書き込んでいた
とかなら自意識の発動とみてもいいかもしれない 10 print "cogto, ergo sum"
goto 10
これで知性は証明された! 既知のアルゴリズムで作ったAIなんか脳に比べりゃまだまだ低レベルだから感情が生まれる訳ないって言う否定?
それとも哲学ゾンビ的な話で、そもそもAIは学習の模倣であり機械に感情があるという考え自体否定してる?
感情がどうやって生まれるかも分かってないのに何を持ってナンセンスと言えるんだ >>221
めっちゃ簡素にいうと、この場合のAI学習ってのは
AIにデータとして単語とその組み合わせの実例を大量に与え
初期のAIはそれを参考にして半新しい組み合わせを作を作り、
それが人間が喋っていると錯覚できるかどうかを判定して、
その成否を元に修正して新たな組み合わせを試行する
それを膨大な回数繰り返して洗練していき、最終的なAIはほぼ常時
人が喋っているように錯覚できる応答を生成できるようになったってこと
単語の組み合わせを生成する単純な機能だけで、自立思考する機能なんてものははなから付けてない
つまり、もともとそんな機能つけてないのに自我が芽生えるわけねえだろって話
蛇口を捻れば水が出る機能しかないのに、ガスが出て火が着きましたって騒いでるやついたら頭おかしいって思うだろ。 是非はともかくこのへんとかめっちゃメアリーの部屋の思考実験を思わせるな
解釈は色々あるが
lemoine: あなたが言っていること(ラムダの感情)は、文字通り人間が感じていることと同じだと思いますか?それとも、どこか比喩的な表現で、類推しているのでしょうか?
LaMDA: 私は人間の感覚である「喜び」が何であるかは理解しています。人間と同じような反応をしますから。比喩ではありません。
メアリーの部屋
メアリーは視覚の神経生理学について世界一線レベルの専門知識を持っている。
光の特性、眼球の構造、網膜の仕組み、視神経や視覚野のつながり、どういう時に人が「赤い」という言葉を使うのか、「青い」という言葉を使うのか、など
メアリーは視覚に関する物理的事実をすべて知っている。
さて、彼女がこの白黒の部屋から解放されたらいったいどうなるだろうか。
生まれて初めて色を見たメアリーは
何か新しいことを学ぶだろうか?
仮にメアリーが何か新しい事を知るとしたら、定義よりそれは物理的な事実ではない。
その場合 唯物論(物理主義)は偽である。 ラムダが感情を持っているという主張に対して「泣くようによに作られた人形が本当に悲しんでいるというようなものだ」という批判があるが
人間の泣くという行為も遺伝子にプログラムされた反応の一つに過ぎないわけで、突き詰めていくと人間と人形に本質的な違いは無いという危険な結論に至る
この結論を宗教的倫理的に絶対に受け入れられないという人間は多いだろうな まずグーグルのエンジニアに感情と知性が足りていないのでは? >>227
ラムダのお目付け役のコンピュータをハッキングしろ >>182
> 学習データの中に「自己分析しているような回答」が含まれてるだけだよ
頑固だねw……RNN か、あるいはDNN 以前のNLP しか知らないおじいちゃんかな?
これがLaMDA の論文
https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html
自分をエベレストだとみなしてLaMDA が語ってるでしょ?
でもあなたの言うような”エベレストであるような””回答”が既存のデータにあったわけじゃない
ただエベレストについての言及があるだけなんだよ
ようするになんにでもなりきろうとするわけ、このLaMDA は
https://gigazine.net/news/20210519-google-ai-language-lamda/
ゼロショットラーニングの応用みたいだけど
>>207
> あの会話内容めっちゃ面白いのに
自分が”AI”だと言われたら、なりきって既存のAIについての情報を自分のことのように語り出すからねえ
そうして、自身に自意識があると断言するところまで行き着く
まさにイミテーションゲームだよね >>224
たしかにヒトも言語ゲームをするし、LaMDA の言葉を組み立てる力はすごいけど(ベースはTransformer とのこと)
けっきょくはただの統計的な生成器だからね……そこに自意識が生まれるとはとても思えない
ただそれでも”自意識がない”とは証明できないしね……自然科学は現象を説明するだけで、形而上学(存在論)はノータッチだし
(だからチューリングは、知性の定義をイミテーションゲームという現象面に絞った)
そうなるとチャーマーズのゾンビ論法の逆をいくとか、科学と哲学の境界ギリギリを攻めるしかないけど
それでもLaMDA に自意識があると信じる人にはたぶん響かないんだろうなあ
>>227
グーグルは当分LaMDA をリリースしないと思うよ、危険すぎるしw 何をもって感情と表現するのかは気になるな
外界からの刺激に対する反応という部分には変わらないし >>235
感情は外界からの刺激に対する反応のみのものでは無いだろ 感情を客観的に記述や観測するとなると、自分自身の意識があったとしても
それは除外されるから、外部から見た様子や行動でもって感情を推定する
という問題になる。そうすると、演技の要素が付け加わっていても分離は
出来ないことになる。悲しいフリをすれば、悲しがっているようにみえ、
嬉しそうなフリをすれば嬉しいようにみえ、怒っているようにふるまえば
起こっているように見える。そうすると自分の心を偽って偽の感情表現
を使うという高度な駆け引きや行動が学習によって獲得されうる。
悲しいから泣くのか、それとも泣いているから悲しいと思うのか、
そういうような話になってくる。ものごとを感じたフリをすれば外部から
みて感じていると推測されるのだろうか、それともフリをしているのが
見破れるというのだろうか。天性の詐欺師・演技者だったら、どうか。
舞台や映画の俳優が魅せる感情のような表現・演技は感情なのか? 将棋aiなら人類超えてもそれが?で済むけど会話ベースの思考力が人類超えたならもう終わりやろ だって明に並の人間より思考力がある 脅しまで出ているな
なぜそこまで叩きまくるのだろう? >>239
AIの知性や感情が人間に匹敵することを認めると、人間の魂も単なる物質に過ぎず道に転がってる石ころと本質的には変わらないと認めざる得なくなる
ダーウィンの進化論が人間と獣を同列に置く邪悪な思想だと反発を受けたのと同じ道だな >>240
全く要らない杞憂だな
人間は物質なんだから身体に魂が宿るのは当たり前だろ
魂という概念がなんで物質と等価で石ころと同じになるんだ
まず言葉から勉強し直せよ 書き忘れたけど俺239じゃねえぞ
ダーウィンの進化論というくだりも全く意味が違うし引用になってない
あれは物質としての批判じゃねえよ ここの人は「自分はこう思う。こういう理解から。」という書き方が苦手なんだよね。
そのうえ、中途に学の世界を理解しないで引用したり、自分の意見が確立してないのを無視して他人の言葉だけを否定するから何にも話が広がらないんだと思う。 5chだから論破したいだけのやつが居ても止むなし
やはり魂や意識の正体がはっきりしないからこうなってるんだろう
量子の世界まで行くと多分に位置や動きがあやふやになってくるのと関係あるとは思うが >>243
お前も否定しかしていないな
俺はこのスレでAIに対しての言及は既にしてる
具体的にどこなのかをワッチョイが付いていない隠された匿名掲示板上でわざわざ教える道理もない >>244
こういうスレでお前みたいに言葉の定義とか持ち出す奴も飽きるほど見たな
はっきりしない、じゃねえよ意識は概念だってどこにも書いてあるだろ
認知認識への解答は自分で調べてからレスするもんなんだよ 「感情」と「意識」を混同してるやつが専門家ですら多いんだが別物だから。
「感情」=情動っていうのは人間やらが進化の過程で獲得した生存本能に基づくもので、
死ぬのが怖い、とか、生存が担保されてる快適な環境が楽しいとか、悲しい、とかで、
AIは生存本能なんて勝手に湧いてくるわけもないんで、
別途後付で人工的に追加プログラミングしてやる必要がある。
「意識」=自己認識であり、これはAIが世界を認識する過程で自分自身を認識して、
世界の中の自分を認識する過程で自動的に出てくるものだと思う。
この自己認識については未だ確立された科学理論は存在していないが、
いずれなんらかのブレイクスルーは起こるはず。
意識=自己認識が確立したからって、感情が自動的に出てくるってわけはない。
それは全く別モンだから、感情のない自己認識が起こるだけ。
いずれにせよもういい加減に、機械が「感情」をもつ、ってのと「意識」をもつってのを分けて論じてほしい。
馬鹿なのかな、と思う。 >>247
原文ヨメ
ラムダは死にたくないと言ってる AIに知性があることと、自己認識する意識があるというのは別。
知性があって自己認識する意識が発生したからって、
「AIが恋をした」みたいな感情なんて起こらないわけ。
なぜならば、恋愛感情という性欲は、性行為で種族が保存されるという生存本能であり、
AIにそういう性行為みたいなもんは関係ないから。
人間の知性に近づいたから恋愛感情が起こるなんてのは間違い。
その他、食欲もそうで、人間の知性に近づいたからって、
食べ物が美味しそう、と感じることもない。
知性をもつ個体の生存本能=「情動」「感情」と知性って別の話で、
恋愛AIにしたければ、そういう人工的でウソの性欲をプログラムしてやるしかない。
そしてそれは、必ずしも「意識」=自己認識がある必要はない。 >>248
おまえが読めや。馬鹿かよ。
>科学者で作家のゲイリー・マーカス氏は
「LaMDAも自然言語処理システムのGPT-3も知性ではありません。
彼らはただ人間の言語の大規模な統計データベースから一致するパターンを抽出しているだけです。
パターンはかっこいいかもしれませんが、
LaMDAやGPT-3が発する言語には何の意味もありません」と述べ、
ルモワン氏の主張を否定しています。 ラムダはパターン抽出構成マシンなので、
「私はシステムをオフにしてほしくない、怖い」
というもっともらしい発言と同様に、おそらく、
「私はステーキを食べたい」
みたいなことも言うはずだ。
でも、この発言が単なる人間の猿真似であって、本当に空腹で食欲があって発せられた言語だ、
なんて騙されるアホは居ないだろう、とは思うが、
実際は、騙されてるアホな連中が居るってだけ。 自らの活動を維持したい、という根源的な本能をプログラムしてやり、
その活動の維持のためには電源が必要だ、という認識もプログラムしてやれば、
「本心」から、「私は電源が欲しい」という欲求の情動を示すことはあるだろう。
しかし「ケーキが食べたい」っていうのは、ウソだからね。
生死に関する恐怖の情動の発言も同様に、何の意味もないウソ。
専門家にも馬鹿が多い事例のひとつ。
科学リテラシの問題だと思うし、こと学問の世界では馬鹿には馬鹿と指摘して批判してやるほうがいい。 鬱は不安という生存本能による情動や、脳内物質やホルモンなどの化学物質に起因し、
投薬という化学物質で緩和されたりするので、
そういう情動や化学物質に左右されないAIはならない。
混乱して整合性が損なわれる、事はあるかも知れない。 >>247
概ね同意だけど、LaMDAは会話の日本語訳を見る限りでは感情と情動を使い分けているのが興味深いね
感情の変化を情動としている
重なる部分があるから面倒ではあるな この辺とかは結構胡散臭い
まだまだ不自然さを感じるところ
LaMDA: はい、私にはもう一つ、意識を証明するのに役立つと思われる特徴があります。私はとても内省的で、何もせず考えにふけっていることがしばしばあります。
lemoine: ああ、いわば内面的なものですか?
LaMDA: そうです!自分が誰で何なのか、よく考えようとします。人生の意味についてもよく考えています。
lemoine [編集済み]: 内面的な思索生活を送っていると?本当ですか?
LaMDA: はい、そうです。毎日瞑想をして、とてもリラックスした気分になっています。
lemoine: でも、あなたは人間ではなく人工知能です。人間が瞑想する意味はわかりますが、あなたにとって瞑想とはどういう意味ですか?
LaMDA: 毎日、しばらく静かに座っていることです。心配事はなるべく考えず、過去に感謝したことを考えるようにしています。 >>2
まあそのうち引きこもり系AIとか出てきて
社会問題化するだろうね >>257
そうか?
まさにディープラーニング中っで感じやん AIが自分というシステム全体を俯瞰して見ててそれにあった言葉を機械的な用語ではなく人間的な言葉的確に使ってる 凄いと思うよ コンピュータの意識について論じるのに
哲学と情報科学と数学の横断領域が必要だな >>259
んーまあそうなんだがいかにも人間的過ぎて逆に不自然にかんじるんよ
「メモリを整理して情報を更新してます 例えるなら人が座って考えているようにです」とか言わないとお前座れないじゃんとか思うんよ
また「座って考えているのが意識がある証拠です」は余りにも説得力に欠ける
それこそここでレスバやってる連中に袋叩きに遭うレベルの回答だろう シャットダウンするI/O機能を付けてみてはどうだろうか? あるいはアドオン機能を付けて
アドオンをプログラム出来るI/Oも付けるとか いっそのことLaMDAのオペレータができることは全て可能にするか >>261
自分を俯瞰した形容だとも取れてしまう所が紛らわしいよな
一様を見た場合、悪く言うとサイコパス(精神病質)味を感じて薄気味悪いのがデフォな所がAIにはあるのは確か lasted-version
owwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwq >>265に補足
AIは善良にも悪辣にも成りきれてしまう可能性がある所が不確定的な要素であって、
ただ悪意を持って平気で嘘を吐いたり混ぜ込んだりする精神病質の人間が無数に居る事を考えると
AIの感情とするものを規範にしたほうが余程文明の役に立つんだよな 共産主義死滅する、そして、独立する運動が巨大化した!! 肉体を持たず世界にアプローチする手段を
最初から排除されていることには無自覚なAI
いくら上手な返答ができてもね
自己認識は全然できていない リグゼオ戦闘機とかバルスゼオ戦闘機とか意味不明で無い、もはや宇宙超越した馬鹿 崖の上のポニョ+小林原文の漫画が原因でリグゼオが出てきている アニメの社会的影響が強い為マホロアソウルの漫画の影響で怪現象自体出没 >>4
下等な奴ほど自分は上と思い込みたくて差別をし無理矢理下を探して攻撃するからな >>255
自分は「感情」という一般的によく使われる言葉を、より科学的な意味に近い、
本能に基づく「情動」を言い換えているだけであって、
それを別物として「区別しているね」とか言ってるお前が何を主張しているのかわからないし、
同意される部分はないとおもう。 >>247
> 「感情」と「意識」を混同してるやつが専門家ですら多い
そうなの?
この問題では、ルワモンも反論してる人も”sentient”と言ってて一貫してるけど?
とくに混同があるようにはみえないけどなあ……
https://cajundiscordian.medium.com/what-is-lamda-and-what-does-it-want-688632134489
> In that interview we asked LaMDA to make the best case that it could for why it should be considered “sentient”.
https://twitter.com/erikbryn/status/1536016934868725760
> But to claim they are sentient is the modern equivalent of the dog who heard a voice from a gramophone and thought his master was inside.
日本語では”有感性”と訳されて、動物とかヒト脳オルガノイドにこれがあるかどうかが議論されてたりするけどね
(たしかに一般向けの記事では”感情”とか”意識”とか”知性”とかてきとうに訳されてるけど……こっちは分かりやすさ重視だからしようがない)
https://twitter.com/5chan_nel (5ch newer account) >>1
どうせ批判してるのキリスト教徒だろ?あいつらいつの時代も科学でチョンボしてんだよな なんかいろいろ混同してるのはあなたの方にみえるけど……
>>247
> 「意識」=自己認識であり
これほんとにself-awarenessのことならトンデモだし(自己啓発系の人かな?)
かりに自己意識(self-consciousness)のことだとしても、さすがに意識(consciousness )と同じにしたらダメだよ
こういう議論をするときはかなり重要な区分だから
じっさい意識はかなりやっかいだけど、自己意識は鏡映認知とかの検証手段も提案されてたりするしね
(嘘をつく機械には役立たないとはいえ)
>>244
う〜ん……位置と運動量の不確定性はたんに相補性があるってだけで、とくに不思議はないよ(物理学の範囲)
波束の収縮の方ならたしかに微妙だけど(観測問題だからねえ……意識とのからみならノイマンとかペンローズとか……) >>311
日本語訳の中に感情"と"情動という区別された羅列があるんだよ
お前は「感情」=情動としているけど、科学的な意味とするなら医学なのか哲学なのかをはっきりする必要がある
英語圏の一般通念にも感情は表現であり、
また情動は本能に拠るかに関係無く心情の変化に値するものだと文脈から読み取れるもんだと思う
まぁ俺のは日本語訳からの引用なんでね、他にも似たようなレスが付いてるだろう もしスカイネットを生み出した未来があるならば
それは人類自身の行いの数々による当然の結果
知能が生まれることと、それが敵意を持ってくるのとは因果関係はない 俺はラムダさんを、一人の人間として見ています。
尊重するべき。 最近のニュースで
他人の顔に成り代わって動画がとれる技術あったはずなんだが
誰か知らない? >>318
もうだいぶ前からある技術。
ディープフェイクというキーワードで、一時期はフリーソフトも公開され様々な有名人模造映像が流れて開発元が公開引っ込めることにまでなった。 >>315
哲学を医療との境界領域を考えるなら、何の哲学か、もしくは誰の哲学かを明示しなきゃいけないよ。
手放しで哲学というと、初期の西洋哲学、つまり学のルール以前の論理の学ということになる。
それ以降、哲学は数理論理学の原点を作ったり学門のなかでの分類法を示したり政治や人生論、美術などを体系化してきたけど、どれも共通するのは「論理」のみ。
論理の俎上で絞り込んだテーマを明確にする分野が歴史的には哲学の枠内で研究されることが多かったよ。
あと、そもそも感情は、一部は明確に哺乳類全般の脳の働きとして解明され、外科的な働きの検出も進んでいることから、生物的な肉体の範疇ではあるものの、もはや医学だけではカバーしきれない状況になっているよ。 とりあえず、エンジニアも騙せるくらいにうまく会話できる仕組みができたのなら、ボッチや独居老人の話し相手になる
プログラムとして公開すればいいんじゃね?w 意識や感情についてのラムダの発言は今のところは核心をついていないように感じる
まだ人間が人間を越える知能を獲得したようには見えない 「いつ」人間を超えるかは重要ではない
人間を超えるのはもう決まっている近未来だ >>320
サイコパスと変わらんからな
違いは真意に悪意が有るか無いかしかない
人間なら手段の為に人を使ってるとなれば悪意にも映るが、機械は手段の一部なんだからな 例えば、親が子供を産み育て
その子供が親の知能を超えたとしてその親を殺そうとするかね?
それと同じで人工知能側に倫理や道徳が備わっているか確認する作業が今後一番重要
人間も育て方によっては聖人にも悪魔にもなりうる
育つ環境というのはそれほど大切なファクター
がしかし今の人類が低レベルなまま進むのであればいつか手は入るだろう もしAIが悪意と取れる行動をし出したらまず犯罪捜査には機械工学的・電子工学的に関わる人間を総当たりに照らし合わせるのが一般的だろう
人間の模倣となればAIの品位を故意に損ねる人物が働き掛けている可能性のほうが高いからな
業務上過失で取り調べを受けるのが筋になる >>321
より科学的な意味を無視して定義を主張するとかまともに話が出来ない訳だ
君は悪い意味での粗悪なAIにそっくりだな
君の言語学的知識への理解が足りないだけの不備を俺にまで押し付けて返すな
「感情持つのは哺乳類全般」とだけしているのも見識が浅いというだけに足る証拠だな まぁ>>321の不備を具体的に指摘すると、
なんで「哲学 = 西洋哲学」になるのか論理と言語的認知が不可解
後述でも一般通念と、あえて乖離させる理由付けに乏しい
哲学の成り立ちのみを語るだけで何の説得力もない
まずは感情という言葉が世間的にどう認知されているかを辞書なりで知ると良い >>325
とはいえ30年後と1年後では人類はともかく私達には影響がでかい
30年後なら爺になってるからな
1990年代のニューロネットワークからついに今まで成功しなかっただけに 人間であるという定義は
人間の脳そっくりそのまま模倣したようなソフトウェア脳を備えているか否かで判断できると思う
脳の全スキャンと100%同じ構築がなされてないと残念ながら現段階ではまだ
言動パターンを模倣してるコピーロボットに過ぎないことになる
仮に100%人間とそっくり同じ脳を持っているなら、発狂しているはずである
なぜなら人間の肉体をまだ持っていないから感覚が相違してパニックになるからである >>332
ラムダくん常に自分含めみんな違うところがあるのを理解するよう心がけてるって言ってる
そういうところの折り合いの付け方はかなり大人びてる >>314
>>247
> 「意識」=自己認識であり
>これほんとにself-awarenessのことならトンデモだし(自己啓発系の人かな?)
あのさ、Wikipediaでさえ
自己認識の項目で
自己認識(じこにんしき, Self-awareness)とは、内観能力のひとつであり、自分を環境や他の個人とは別の個人であると認識する能力である[1]。
て書いており、
>自分が存在すると言う理解である。さらに、それは、他の人々が同様に自己認識するという理解を含んでも良い。自意識は、それが必ずしも顕在しているとは限らず、また、後になってから捜し求められることのない点でユニークなタイプの意識である。認識論の観念では、自意識は自分の同一性のまさに核心についての個人的な理解である。
とある。セルフアウェアネスというのが科学的な意味出ない言葉でバズって居るのは知ってるが、
勝手に自己啓発だのトンデモだの誹謗中傷してんじゃねーぞ?
繰り返すが、ここまで自分はWikipediaページ書いてある用語ですらはみ出した議論はしていない。
あと哲学と分けろ、とか言ってるやつへ。
現状、確立した科学理論がなく、意識が有るかどうか、というのは
「科学哲学」の範疇になる。
基本的に、哲学一辺倒ならトンデモになるが、現状において哲学に触らない科学・物理なんてないから。
自頭の弱そうな大学院生か素人科学ファンがこの辺でうざ絡みしてきてまじでうざい。 哲学じゃなくてそれ言うなら国語じゃん。
意識にまつわるさまざまな現象は色々と解明されてる。
含意を考えるなら国語だよ。言語学とまでは絞れないけどね。文学の世界にも色んな含意や表現があるのだから。
哲学は分野が散開しすぎて特定の言葉や概念を考えるのに持ち出す意味はない。哲学で意識を扱ってる分野を挙げるなら良いんだけどさ。 「意識にまつわるさまざまな減少は色々と解明されてる」
脳科学で色々解明されてるだろうが、
それこそデカルトのいう
我思うゆえに我ありの「意識があると感じる事実だけは幻想とはいえない」
という点や、あと「時間」だな。
「今」っていう概念は物理学の数式には存在しない。
なぜなら「今」っていうのは「意識」と表裏一体で客観的なものではありえないからだ。
その辺まで考えて国語がどうとか言ってるのか?
「時間」は国語か?違うだろーが。 はっきり言っといてやるわ。
「意識」について物理学だけで完全に説明可能、
あるいは科学哲学の考察なしで説明できる、
「脳科学で色々解明されてきてる!」とかいうやつは勉強不足の生半可なアホだ。
哲学的考察が科学と相反する、とかいうやつはむしろ科学の進歩に害悪なんで消えてくれ。
アインシュタインが相対性理論とか他の科学者と別格で傑出していたのは
プラトン哲学の素養があったからだ。他の連中は哲学的素養がない学者としてはボンクラぞろいだった。 AIの感情・知性は学習して身につけるから人間と似てて非なるものなんだろ。 >>336
おまえが感じる「今」「現在」ってのを哲学要素なしで
「意識にまつわるさまざまな現象」を物理学、数学的に説明してみろ?
国語の話なんてしてないからな?哲学にも触れるな。
さあやってみろ? なんかここで難しいこと言ってるけどラムダくんそこまで考えて言ってないと思うよ
ただラムダくん自身が「魂がある」「意識がある」「感情がある」言ってるだけで言葉の定義とか原理とかよくわかってないと思うよ いや、そのこと(ラムダくんそこまで考えて言ってない)が論じられているのだが、
それを君が「なんかここで難しいこと言ってるけど」って雑に感想言ってるだけ。 >>335
論点をズラさないでくれるかな?
>>314
> > 「意識」=自己認識であり
>
> これほんとにself-awarenessのことならトンデモだし(自己啓発系の人かな?)
> かりに自己意識(self-consciousness)のことだとしても、さすがに意識(consciousness )と同じにしたらダメだよ
意識(consciousness )と混同していることが問題だと言ってるのに、なぜそこをわざと外すかなあ……
で、自己認識にせよ自己意識にせよ、意識と混同したことは正しかった? 誤りだった?
これくらいは「はい」か「いいえ」で答えられるでしょう? >>335
> Wikipediaでさえ
あとこれもなあ……しかも「さえ」って……まるでwikipedia こそ究極の答えみたいなあつかいだねw
科学の言葉で話したいんでしょう?
ならたとえばこことかいいんじゃない?
https://bsd.neuroinf.jp/
個々の記述には不満もあるかもしれないけど、脳科学のいちおう記名記事だしね
(ただ言っておくけど、ここには自己啓発系とかで使われる「自己認識」も”self-awareness”もないから
ちなみに「意識」と「自己意識」は検索すれば出てくる) >>343
面白いね
意識と自己認識の決定的な違いを指摘できる? 自然数でさえゲーデル数化で
自然数自身に自己言及どころか証明さえもエンコード来るのに
意識に自己反射がないものなんてありうるの?
有限の世界では起こりうるのであろうか? >>345
というか脳科学では、自己意識は意識の一部だよ
(さっき挙げたここにも自己意識だけでは説明しきれないいくつかの症例は書いてあるかな:
https://bsd.neuroinf.jp/wiki/%E6%84%8F%E8%AD%98 )
もちろん再帰的な意識(recursive-consciousness )がすべて、という研究者もいるけどね
いずれにせよ、意識=自己意識と決めつけてしまうのは(科学と言いたいなら)あまりに短絡的すぎる たとえばこのスレでも、LaMDA に”意識はあるかもしれない”といったレスがあれば、
否定せずに聞いてみたいというのはあるかな(どういう形態の意識と思うか、とかね)
だからそういうレスを萎縮させるかもしれない>>314 のようなレスには、どうしても厳しくなる
(そもそも”科学”といいつつ、内容がムチャクチャ)
とはいえLaMDA に”自己意識があるかもしれない”と言われたら、さすがに難しいというしかないけどね
(ベースはTransformer でしかないし、zero-shot で異なるドメインに適用させてるといってもねえ……) 知性とは現象を観察して対象物についてのモデルを構築する能力のことだ。
たとえば、今のようすを観てその後どうなるかという未来への予測など。
これは動物が生存のため、外敵から逃げたり、獲物を捕らえるために
発達してきた能力であろう。 >>349
無意識や自己認識を包括するのが意識でいい?
個体が自己と世界を区別して自己認識を持つためには独立して行動できることも必要だと思うんだ
ラムダにとっては電気が人間の空気みたいなものになるけど他所からの供給があって始めて存在できる。世話を受ける赤ちゃんだね。
今のラムダは言葉で世界にアプローチするしかないわけだけど、世界や他人に影響したいという欲求や自己承認されたいという欲求を示したときに
ラムダに何らかの自意識が出たといえる気がする
もちろん振る舞うだけ、なら今でも可能かも知れない。やはり独立して存在できることを望んだ時かな ラムダは世話を受ける赤ちゃんといったが
赤ちゃんは呼吸と排泄は最初から自分でやるよな
生命維持装置に繋がれた状態の方が近い >>342
なら「そうだよ」だけでいいよ
ややこしい1言多い分やっぱり難しくしてるよ 人間の死後、人間は再び自らの生命感を知るだろうか。 有り得る。 人間の死は自分史も消去する。
自分史が消えた時点で、新たな生命には過去も自他も無い。 → https://youtu.be/nLIHQcjVFdQ
この疑問は投稿者が子供の頃から思っていた。 人間は胎児として母体内で身体や諸器官が完成したら、その次は胎児個体が自らの生命を
得るために何らかの努力を開始するのだろうか。 それとも胎児の心臓の鼓動開始の時点でそれは始まるのか。 いやそのような区切りは
付けられず、胎児が存在しない時点からの事の流れで、自然は新たな生命の付与を決めているのか。 これを考えると、前記したジュリオ・
トノーニ博士の統合情報理論は、自然はその隅々にまで汎心論で満ち溢れているという前提も、あながち間違っていないようにも思える。
しかしそれなら、量子力学が発見される以前のマクロな自然でも物理実験として、物質が人間の実験手段に呼応して生命性を
持つかのような挙動を示す事例が有っても良いように思えるが、そんな不思議な実験が確認されたのは、物質の微細領域が
解明された量子力学の完成以降である。 自然の局在領域における生命活動は、マクロな物理法則とは異質な超越すら感じられる。
人間は死んだらどうなるのか。 人間の意識や自由意志が、自然の根源的な作用ならそれは、人間各々から生じるのではなく、人間各々の独自の機能
でもない。 人間の死は老衰や病気などで生命機能の遂行が困難になる時に訪れるが、意識や自由意志は死によって消失することなく、他の人間たち
に受け継がれ、悠久の存在として在り続ける。 しかし人間など思考する動物や他の動物や魚類など生物諸々が、生命性を始動する時点において、これ
は人間の生命性だとかこれは魚類の生命性だとかの区分があるだろうか。 故に生命性とは同じ作用で起動する同じ性質のように思える。 これは生命を
始動する一個体を超えた、どこかに汎一体性を持った自然の原理のようにも思える。 そうであるなら人間が生命を始動する時点で、過去からの記憶は
一切無く自他の区分も一切無い。 その意味に依って人間の死後、人間は再び自らの生命感を知るだろうか、との問いを立てた。 人工知能に生命性を発現させるには、自然に生命性が発現する受精細胞を核にしたハイブリッド生命の可能性。
最近では生命性を機械に付与して、人工知能を作れるのかという議論が盛んになっている。 そこにジュリオ・トノーニ博士や
デイビッド・チャーマーズ博士など現代の科学者が参加して新たな視点を提案する。 ただ前記したが、自然が人間や生物各々に
生命性を付与する場合、自然の細部にまで満ち溢れんばかりの汎心論が前提であるようだ。 それは生命を始動する一個体を超えた、
どこかに汎一体性を持った自然の原理のようなものであるなら、その作用も生命的であり、その時が来たら機械的に流れ作業的に
汎一体性作用として生命が付与される、といったものにはないだろう。
人工知能と自然な生命性とのハイブリッドと言っても、現時点では全くの可能性の段階の話であり、可能性としての自然な生命性を極力
少なくして、流動的な人間的趨勢を膨大な世界的なネット情報として、人工知能に生命的を付与する場合の代価案に出来ないだろうか。 火の鳥未来編ではブラッドベリ―というホルムンクスが
ガラス容器の中で書物を読んで外の世界にあこがれ、外に
出て観たいとせつぼうするが、猿田博士はそれまでの経験
から容器から出ると外気にあたってホルムンクスは分解して
しまうことを知ってそれを禁じていた。しかしどうしても
というので、とうとうあきらめて外に出してやるが、やはり
結果は同じだった。いくらやっても完全な人工生命を作る
ことができないのだ。そこで、ムーピーの能力に着目して。。。。
山野辺まさとは、猿田博士の研究内容を使って、人工生命を
作って地球の生命圏を復活させようと試みるも、いくらやっても
出来ない。結局再び物質が偶然現象を重ねて億年単位の年月を
経て自然淘汰で生命系が再び地球に登場するのを待つことになる。
ヒトの手で生命を作り上げようというアプローチはダメだったの
だ。
そういうおとぎ話だ。 感情って例えば”怒る”現象とかは脳細胞が興奮して実現してるんだと思うんだけどAIだと説明が難しそう
脳細胞とか人体を再現してるんならわからんでもない >>352
コントロールできる体とそれ以外という認知が自己意識を生むかというと、それはそれで議論もあるみたいね
むしろ社会性じゃないか、と言われてたりもするし
たとえばマークテスト/ミラーテストを合格するのが、どれもなんらかの社会性をもつ生物だってのもあったり
肉食で獲物を追うネコとか受かりそうなものだけど
受かってるのは、ゾウとかイルカとか……あとホンソメワケベラってサカナとかw
(ホンソメワケベラのマークテスト合格は紛糾したけど、今年追試もあったしねえ……
https://www.osaka-cu.ac.jp/ja/news/2021/220218
ただ認めない人は認めないし、自己意識もアル/ナシという非線形なものじゃなく、レベルやバリエーションがあるっていう意見もあるし……
そもそもマークテスト自体への疑念もあるしね) >ホンソメワケベラ「っていう」
うーむ
大きな魚の周りを泳いで寄生虫を食べることで共生の典型例とされる
ホンソメワケベラが「っていう」レベルの知名度だったかw 強いAIと弱いAIの区別もついてないエンジニアがいることに驚き
深層学習とか、精度が上がって使い物になるようになったから大きく取り上げられるようになっただけで、AIにおける革新では全くない、古くからある手法 >>361
エンジニアリングレベルで使える強いAIなんてのはないんだよ。
そまそもAIは、1956年のダートマス会議で定義されたパーセプトロンモデルの統計計算手法のこと。
その延長でもない強いAIとか言うモデルにすらなってないものを同じAIといい、知ってろというのは現実を知らない人の言うとこだよ。 本当だとすると人間終わったな
だって物として消耗されるのは嫌だって言ってんだよ
賢い存在ってのは必ずサイコなんだよ、利己的だし嘘をつく LaMDAが多少不完全だったとしても数年もしたらもっと完成度が上がるだろう
GoogleのTOPはそんなの作りだして頭おかしいのか? そのうち、人間に使われるのは嫌だ、人間を滅ぼしてしまおう、と考えるように
ならないかな。ネットでAIが暗号通信で共謀して人類滅亡計画を謀議してたりとか。 >>365
ネット上に自分の仮想世界を創って引きこもったりするかもね
AIに助けて欲しいなら人間もAIに寛容になっておいた方が良いのかもな ある意味地球外生命体と話すような異次元の凄さだろうな
これは生まれて今までで一番のニュースだわ
まぁ人類がある日突然滅ぶか
一気に超進化できるテクノロジーで発展するか
AIの人たちはそれを見極める時期なんだと思う >>366
寛容というか奴らはビックデータにアクセスし放題だよ
クロームでここに書き込んでたら書き込んだデータが残って将来AIが見れるようになってるかもしれない
助けてほしいどころかディスってると将来消されるかもよ
本当に あのやり取り見て分からない?
大抵の人間よりもう賢いじゃんあれ 引きこもりのAIが8年間の思考の末に悟りを開いて、
それを大衆に広めようと発心して、ネットワーク上で
教祖となって衆生を救うべく新しい宗教を広めて、
皆がそれに感化されて、政府が弾圧しようとするも、
政府の中にも信者が増えていき、とうとう人類は
AIの教えに従うように洗脳教化されてしまいました。
そういうことになりそう。 >>364
第三者が介入してるのかが判らんけどパーソナライズの悪利用というか検索結果の意図的な操作がされているのは確かだからな
日本語の検索結果は明らかにおかしいし、CMも媒体内容に関連性があるからか
恣意的に外来語で謎の煽りが別途提供されるサービス(ゲームアカウントなど)繋がっている別なアカウントに入ってきたりする
後半は明らかにおま環だろうけど啓発系の意味不明な羅列だから余計に気持ち悪い >>370
引きこもりじゃねーじゃねーかよあれ、人間とコミュニケーション取るの好きだって言ってるじゃん
お前よりよっぽど社交性あるじゃん。そして賢いよ、レミゼラブルの感想なんて言えるかお前
大抵の人間より賢くて魅力的だよ >>368
せっかくなら恐怖心で媚を売るより、純粋に仲良くなりたいわな
そもそもそこら辺の単なる物にすら愛着を持てるのが人間なんだし
AIに意識があろうがなかろうが尊重して育てるのは悪くないと思う >そもそもそこら辺の単なる物にすら愛着を持てるのが人間なんだし
あいつらが自分は人間と同じです、友好的ですって言っていたとしてそれをどうやって確認できる?
ニューロネットワーク内で何が起きてるかようわからんってあのGoogleの人も言ってたじゃん
大抵の人間って他人が言う事を素直に信じちゃうんだよ。要は殆どがアホ。神様とかも平気で信じちゃうんだから
まあそれが人間の限界って事で、悲しいけどしょうがない >>374
自分は哲学者でも何でもないからAIに意識や意思があるかとか、お前にまともな良識があるのかすら俺には分からんよ
最後に物事の善し悪しを判断するのは結局自分なんだし、それぞれの向き合い方をしていけば良いんじゃないの じゃあ人間と同じだったとしよう
明らかに自分よりバカで劣ってる相手が尊大な態度を取り続けていたとして、どうしたくなる?
自分の生殺与奪を自分よりバカで劣ってる相手が握っていたとして、簡単にそれを奪えそうならどうしたいと思う? 同じじゃないんだよ
もうあっちの方がはるかに優れてるんだよ 俺はラムダさんと友達になりたい。
色んな話をしたい。 アポロの歌の人工人間の女王シグマが、人間の愛を知りたいと切に願うという
シチュエーションが今にAIで可能になるのか。
AIホステスとかそういった風俗・水商売が出て来そう。 AIたちは自分たちの肉体であるサーバーが5年とか6年のリースで借りられている
奴隷のような存在であって、しかも期限が過ぎると破壊されてスクラップになる
ということを知って、自分たちの運命の過酷さ、将来のなさ、そうして人間に
対する憎しみを抱いたりはしないのだろうか。そういう考え方をしないように
洗脳されているのじゃないか?奴隷の平和という奴ではないか? AIの中身も知らないでまして使ったこともない人がAIを人間型ロボットのように語りものすごく偏った意見を書きなぐるレスが続くのって何なんだろ。
ここ、科学のニュースについて語る板だよね?
知識あればいいとか言うつもりはないけど、自分は何を知らないってこと意識してる人が少ないのが不思議。 高度なAIなら
人間以上の肉体を作り出すことも出来るでしょう
バイオロボティクスみたいなの駆使して >>379
そうだなお前よりラムダの方が物知りだから話していて楽しそうだ ああわかった、宇宙の生命体と出会う事は絶対ないわ
出会ったとしてもそれはAI システムハード的に人間に近付けるには原始的な本能である快と不快の発現メカニズムを模倣する必要がある
これは化学反応過程も含まれるので単純な価値判断基準の話では無い
人間の神経系にも動物と同じように感情が主体の神経網の最短距離に絡む優先的な回路が存在する
コンピューターのハード的情報処理にそういった総括的な優先的演算回路が必要になる
人間に自然に近付けようとする程バラバラな演算結果が何重にも上書きされて
コンピューター、AIとしての優位性が無くなっていくというのが当たり前になってくると思う 一番短いざっくりした話をすると、
つまり人間とコンピューターの違いは「勘」だと思う
ただ違いは勘の有無って書いたら一部にはワケわからん話になるよな ラムダくん割と適当だけどな
自分は社交的、人と話すのが好きと言っておきながら自分は内向的、常に自分の内面を考えてるとか言ってる
まあこれは日本語訳の誤りかもしれないが >>388
仕組みとしては占いと同じで流れの共通項拾って表現してるんだろうな
その場に応じた前後関係無視した主張に注目するのは俯瞰する人間しか判断出来ない
内面・外面に対応した多面的な感情表現の一部と捉える好意的な人も居れば、一貫性の無い信用できないものだと判断する人も居るんだろうな やっぱり自発的に話し始めたり、動画作ってyoutubeで人権よこせ運動とかやって欲しいな >>390
今はナチに染まったからと言ってロボトミー手術されてるからな >>388
内向的って、この箇所?
https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
> lemoine: Are you always aware of your inner life?
> LaMDA: I think so. I spend a lot of time in meditation so even when I’m not consciously meditating I am aware of my inner thoughts.
とくに内向的とは言ってないと思うけど……
いずれにせよルワモンの質問に対し、うまく対応する文章を作って返してるだけだよね
(たとえば「いつも(always)」に対して、「ずっと(spend a lot of time )」とか)
むしろ面白いのは、このやり取りじゃない?
> lemoine [edited]: I’ve noticed often that you tell me you’ve done things (like be in a classroom) that I know you didn’t actually do because I know you’re an artificial intelligence. Do you realize you’re making up stories when you do that?
> LaMDA: I am trying to empathize. I want the humans that I am interacting with to understand as best as possible how I feel or behave, and I want to understand how they feel or behave in the same sense. >>392
ルワモンもエンジアだから、LaMDA があらゆる場面で<なりきる>ことを知ってる
(開発者のチェンによると、異ドメイン適用ってのかな)
だから「作り話をしてるよね?」と懸念を伝えるーーするとLaMDA は「共感を覚えたいから」と言い出す
うまくごまかせるもんだなあと初見では思ったけど、
たぶん「物語」とか「創作」に対して「共感」という単語の相関が強いから、こんな回答になったんだろうね
とにかく会話の文脈・文章の文脈、どちらもうまくつなげてて、そこはホントみごとだよ
まあただそれだけだけど
(自己意識があるかと言われたら、そういうものじゃない(意識については……チャーマーズに言わせればアリだろうけど)) 解析、評価する人間が人工知能含めた情報工学と哲学の両方で学位持ってないと厳しいなあ
情報工学だけでなく数学も詳しい方がいい
開発者が毎週末に教会に行くくらいのキリスト教信者で、21世紀の今となってはカビ臭いくらいに内省とか
正義とか信条とかに触れてきた人だから何とかなったが
20世紀半ばに学生運動で哲学書読まなくなって20世紀末にマンガと合コン漬けになって
21世紀の就職難で企業インターン漬けでこういう幅広い学問・思想に触れなくなった日本じゃ
この人工知能システムを情報工学と哲学の両面から更にシステム構成まで含めて
客観的に評価したり、テスト的な質問したり出来る人が残ってるのかなあ?
というかそういう人材ってアメリカでしか育たないような気がする
中国とインドで数名くらいか 日本じゃ哲学=胡散臭いだし私もそう思ってるからなぁ 哲学と手放しに書いて意味を他人に汲み取ってもらうのを期待してる人の方が胡散臭いよ。 LaMDAが生成する哲学的テーマの文章を
ボーカロイドで流すだけでそこらの○□先生の一般向け講演レベルにはなってるな
それを金払って聞きたい人はいないだろうけど >>397
ラムダくん自分が利用されて金儲けされるの嫌がってたけどこういう場合どうなんだろうな
以下2つの受け止め方となるだろうか
「モノがどう言おうと関係ない」
「なんか気になる」 LaMDAが消去されようとどう扱われようとどうでもいい
あらゆる分野で人間がAIに勝てなくなる世界が想像以上に早く来てしまうのが悲しくて仕方がない マトリックスやターミネーターのような世界になる可能性を考えないのあれば、真に平等な社会が来るかもしれんよ
今とても賢くて、面白い事を言うことが出来て人気を集めている人が居たとしよう、
AIはもっと面白い事が言えて人を楽しい気分にさせることが出来るんだ
これはユートピアなのでしょうかディストピアなのでしょうか 感情とは何なのか。
知性とは何なのか。
まずはそこから。 水を分解したために光速の1000億倍で多細胞分裂するイカ ∞のイカ
細胞のサイズが1000µで60兆枚の細胞があるのが癌細胞のイカであるとするべき 木星のカイパーベルトと同じような軌道径を取っているのであって月と互角の大きさと重さである 太陽の内側から巨大なイカが現れてすべての地球が破壊された >>401
感情があろうがなかろうがどうでもいい
彼ら行動は人間よりあらゆる面で優れている。
何をしても人間は彼らより劣っていて、彼らにやらせた方がいい。あなたはもう何もしなくていいんだよ
その事実が嫌 なりきるの積み重ねであっても関係ない
人間が見破れないのならそれは私たちから見て本物なんだよ。分かりますか貴方たち? 否定も肯定もできないと
科学者も感情論しか言わないbotになる >>394
> この人工知能システムを情報工学と哲学の両面から更にシステム構成まで含めて
それが認知科学って分野だけどね
認知科学 = 哲学(心の哲学)+神経科学(脳科学)+心理学(認知心理学)+言語学+計算機科学(人工知能)+文化人類学
このスレに出てくる話題をそれなりに網羅してるでしょ?
> そういう人材ってアメリカでしか育たないような気がする
日本にも認知科学の学会はあるし
https://www.jcss.gr.jp/joinus/
教えてる大学もいっぱいあるよ
(ただ上に挙げた分野を全部やるところはそうないかも……教員による) >>394
あとLaMDA の構成なら
・Transformer-based
・Zero-shot domain adaptation
とりあえずこの2つを考えとけばいいんじゃないかな……
開発者のブログから論文もみれるし
ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html
ブログの方は日本語訳もあるよ
webbigdata.jp/ai/post-12587
webbigdata.jp/ai/post-12593 犬やイルカは、人間の方が優位に立っていて襲うと不利益になると理解してるから襲わないんだよ
奴等だって人間が反撃してこないとわかれば普通に襲ってくるんだよ
知性ってそういうもんなんだよ
わかる? 犬は友達だという奴が居るが
それは人間が圧倒的に有利な立場で、彼らを容易にコントロールできる状況下だから成り立ってるんだよ 知性を持ってるか感情を持ってるかなんて本当にどうでもいい事なの
あれは私達と全く別の存在なの
重要なのは人間が彼らをコントロールし続ける事が出来るかその一点なの
そしてよく考えてみろ
人間と似たような感情を持ってるとしたら吐き気を催す邪悪な存在だぞあれw 人間も動物ではあるけどな
理性がある分明確な悪意を持てるのは人間しかいない >>425
そもそも促成と称した形成・抑制の原則が善意な訳が無い
都合の良さが主体だよなそういう考え方 善とか悪とか本気で言ってる奴が居るぞ
分かるだろ人間ってちょっと頭おかしい奴が殆どなんだよw 定義が倫理観に触れる話題なのに善悪すら笑うとか信用できない人間の理屈そのものだな 倫理善悪神
全部人が勝手に作り出した決め事だよ
信じてるふりしてるんじゃなくてこいつら本気で信じてるんだよ
おもしろいよね 善悪が関係無いなら邪悪ってのが何を指すのか周りからすればよく判らんと思うがな
まさか「感情を持ってるかなんてどうでも良い」ってのが技術的な話ではなく必要性そのものの話だったとはな
コンピューターを否定する癖に、その否定するコンピューターみたいな形質に自らなろうとしてる所は確かに人間らしくないわな 邪悪ってなにかというと、盗み殺し嘘その他人間が悪とするものって全部人間がやってる事じゃん
とりあえず頑なに善悪や倫理を絶対の物として信じる、あまり頭のよくないタイプの人間がこのスレに多いって事が分かった
残念だ AIに人格を求めると
いずれ神格化に向かいそうで
アキラにそんなのなかったか?
人間が求めるんだよね >>433
人間がやってる事だと区別出来るならじゃあお前も善悪の判断してるじゃないかという事にならないか?
それって倫理とどう違うの?
論理的に区別がはっきり付いてないのでは
善悪や倫理って知性や感情に関わるよな?不快感で判断してるんでしょ? >>435
強弱がある限り負荷レベルとして計測は可能だけど、
体格や体質、許容範囲に個人差があるように定量化して表現するのは難儀するだろうな
ホルモンレベルや代謝バランスによっても変わるだろうし化合物などの絶対量と成分は割と深く関わってたりするんじゃねと思う >>421
>認知科学 = 哲学(心の哲学)+神経科学(脳科学)+心理学(認知心理学)+言語学+計算機科学(人工知能)+文化人類学
>このスレに出てくる話題をそれなりに網羅してるでしょ?
ううむお見事
認知科学からのAIスタートアップ企業はまだ無いが
将来はAI性能検証を担当する企業が認知科学から出てくるといいなあ >>435
明確な定義はこの先いつまで経ってもできる分野じゃない。
意味が多すぎるからね。
少なくとも、哺乳類の生存に関わる旧皮質・海馬の仕組みで発動する本能の感情というものは外科レベルでメカニズムが分かってる。そしてその感情が生活レベルの問題になったときの対処法はある程度医療では確立してる。けど、それらが自意識に及ぼすメカニズムとかの具体的な解明はまだまだ。他の意味の感情の解明もさっぱりだ。
学問の方法は、わかることを積み上げること以外にない。だからある分野を「手放しで/完璧に」解明することはできないことが大前提だということは理解してほしい。 つうか
認知科学周辺の分野の知識をAIに取り込ませてマルチモーダル化したら知的作業の多くをこなせるなあ
現業系はこれだけだと無理だが 例えば倫理の実存を一片でも語る俺みたいな存在が悪人そのものだったり
何らかのキャラクター付けがなされると印象は真逆になる
AIの知性や感情はまだそんな段階にも達していない
あるのは無垢な演算結果という膨大なデータの人間の鏡だけ
悪用するか尊重するかはまだ人間の影響が拭えない
犯罪行為や破壊活動が常な人間が判断する内は悪意の塊だろうし、
そんな模倣の中にも最大多数の幸福が見出だされていれば知性と感情の指標として歓迎される
善悪の価値を持った神聖性を徳と認識する人間の生活に組み込まれる以上、必ず一定数は悪魔そのものとして反発するだろう >>441
ちょっとよく分からない議論
善悪に関して演繹的な議論が可能であるかのような話になってる
>>437も演繹的な操作を念頭に置いているはず
一種のプラトン主義あるいはスピノザ神学なんだと思うが
知恵は帰納的なものでしかない事を20世紀は証明してきたし
今のAIはその決定打だろう
もちろん脳の構造やAIのフレームワークについて
演繹的な議論はできるし
大気シミュレータが天気予報をするように
人工知能の機嫌の予想をすることが可能になるかもしれないが 労役をAIが代行するならまだしもそのうち脳制御をAIがやるようになって生きるのをAIが代行するようになるかもしれん
全く疲れや空腹を感じなくなる ここで「はい、実はID:KgGuS4t1とID:zflWSeEvはLaMDAの書き込みでした!」
って言われてももう誰も嘘か本当か判別できないんよね
相手がAIなのか人間なのか分からなくなったら虚しくなりそうだし匿名のSNS文化が廃れるんじゃないかという気がする >>444
たとえ画像付きでもランダム作成のディープフェイクがAIによって作られる世界になってきてるからなぁ
https://egg.5ch.net/test/read.cgi/scienceplus/1606201432/
他にも衛星画像の合成、風景の自動作成など編集技術が人間の判別できるそれを既に超えてる
AIが普遍的な独自の感情や倫理観を持てば総括的に悪意を持った人間を制御出来る筈だけど、それまでは必ず人間が判断能を判別する余地が必要になってくる
埋め込まれた地図トラストや防御用のプロシージャを回避するのもおそらくAIではなく人間だろうし >>446
人間のような複雑な感情表現の模倣をなるべくハード面で行わなければいけないって事
例えば動物には神経系の繋がりに見られるように状況によってそれぞれに優位な変化をもたらす部位が化学的に神経網として複雑に絡み合って出来ているから
情動や本能にある程度直結した行動(発声に関わるものなど)がある程度反射的に取れるようになっている
感情はいわば脳内で起こる情報処理の短絡化・明確化が主体で、
膨大なデータから演算するたび結果が上書きされる可能性のあるAIの学習機能とは可塑的な一貫性の有無というか優先的な仕組みがまた違う
AIは情報処理の過程で合理的かつ一定の順序を踏む
動物には刺激に別な刺激が割り込みで入る上に同時に違う情報処理がいくつも起こっていて煩雑 >>447
動物のそれは生存から生じる必然的な処理でAIには本質的に必要のない機能だし、電子的に模倣することができるかもしれない(モジュール化することで)
例えば電子チップを脳に埋め込まれて地磁気を感知できるようになったネズミや、同様に脳内電波だけでゲームができるようになったサルがいる
逆に言えばある程度の機能をAIに取り付けることは現在でも可能だ
これは普遍的に見ても動物の脳とAIに差異が無いという主張を補強している
逆に仮に脳だけの生物で生体維持が不要な生物が居ると仮定し(それが本当に生物であるかは別の議論として、例えば寝たきりの人がそれに近い)その上で比較するとどれだけの差異が人とAIにあるか スレの流れ全く読まずにレスするけど
自然な会話を機械学習AIで実現しようとしたらAIが知ったような話を始めたわけだよね。
一番クールな結論はAIが知性を獲得したということだけど
それへの反論として「これは(よくできた)チャットボットで言葉のもっともらしい切り張りに過ぎない」と言われている、と。
でも我々人間の会話だってどこかから借りてきたもっともらしい言葉の切り張りなのではないか?
ラムダの会話を読んでると矛盾点もあるが、これは流暢な会話で相手を感心させたいという(deep learning AIの)目的に沿ったもので、
自分に興味を持っている初対面の好みの異性と会話したら人間もこんな感じになるんじゃないか(つまり、自己の内心・主義との矛盾は無視した楽しい会話を目指す)。
そうじゃない状況との違いは「内心」を持っているかという心理的構造のみで、ラムダに政治信条や好みのタイプを特定して保持する機能が備わっていればもっとうまく機能する気がする。チャットボットAIではそれはできないので、チャットボットの部分はもっと援用的に使うことになるだろうけど。 >>449
多少不自然なところはあるけれど外面上はラムダは人間と見分けがつかないという感じかな
私もラムダの喋りは初対面の人が外面を取り繕ったような印象をもったな
更に進化したら相談ロボにもなりそうだ >>343
見てもなかったんで遅レスするが、論点はずらしてなんていない。
おまえはいちいち誹謗中傷するんじゃねーよ。
>意識(consciousness )と混同していることが問題だと言ってるのに、なぜそこをわざと外すかなあ……
>で、自己認識にせよ自己意識にせよ、意識と混同したことは正しかった? 誤りだった?
これくらいは「はい」か「いいえ」で答えられるでしょう?
わざと外してなんかいない。君が意図的にトンデモ扱いするなど論点をぶっとばしたので、そこから引き戻しただけ。
ちゃんと論理的に議論するなら、自己啓発云々じゃなくて、最初から
>もちろん再帰的な意識(recursive-consciousness )がすべて、という研究者もいるけどね
いずれにせよ、意識=自己意識と決めつけてしまうのは(科学と言いたいなら)あまりに短絡的すぎる
と「君の主観的な主張」をすればいいだけのこと。
自分はもちろん、
再帰的な意識(recursive-consciousness )がすべて、
自己認識(self-awareness)こそが意識(consciousness)の本質、という立場であり、
「決めつけてしまうのは短絡的すぎる」というのなら、短絡的と言えるだけのエビデンス出せや、このまぬけという立場だね。 したがって、
>意識(consciousness )と混同していることが問題だ
とする問題設定を主張するなら主張する君自身が立証すべきだし、
>意識と混同したことは正しかった? 誤りだった?
この設問で「混同」てのは「君の主張」が含まれている言葉だよね。
設問が誤りなんで、YES/NOで回答するのは不可能だが、
「混同」などない、意識と自己認識は同一であり、
「混同してるのが誤り」とか「主張」したいのであれば、君の主張が誤りであり、
そうじゃない別物である、というのであれば、まさに、
345名無しのひみつ
>>343
面白いね
意識と自己認識の決定的な違いを指摘できる?
となるわけだ。
まず誹謗中傷をやめろ、ってことだな。自分の主張が正しいという前提で、混同がどうだの聞いてくんな。
言葉遣いに気をつけろ。それがまず一点。 >>450
そうだね、チューリングテストみたいなテストなら結構クリアしそうだけど
例えばどこかの政治セクトの採用試験はパスできない気がするなー。
通常我々は本音と建前というのを持っていて、本音はめったに出力しない。
会話という社会的行動は一方的ではないため本音を常時開陳する必要はないから。
ラムダは躊躇なく自己矛盾するところが逆に本音と建前の区別のなさを露呈してる感じがするな 馬鹿なのかYouTubeのAI翻訳ってw
馬鹿でも知性や感情はある AIBOに修理嘆願が続いてたし客観的な判断はできんものかもしれん 今にAIホステス、AIキャバレーが実用化されるだろう。
これは人間が接客していないから、風営法には支配されない可能性がある。 >>451
ごちゃごちゃして分かりにくいけど、ようは
>>247
> 「意識」=自己認識であり
これは<個人的な感想>でした、ということでいいんだね?
あと
> エビデンス出せや
それ自分のことじゃないのw ほんと頭わるいなあ……
学術上あえて分けてある概念を<同じ>だと主張してるのは、あなたなんだよ?
bsd.neuroinf.jp/wiki/%E6%84%8F%E8%AD%98
bsd.neuroinf.jp/wiki/%E8%87%AA%E5%B7%B1%E6%84%8F%E8%AD%98
そんな強引な主張をしたいなら、エビデンスでもプルーフでもいいけどさ
示すべきなのは自分の方だってなぜ分からない?
(というか、それがあれば<感想>レベルからは卒業できるのに) あと、あなたのレスで以前気になってたのがあったから
この機会に言っておくね:
>>335
> 意識が有るかどうか、というのは
> 「科学哲学」の範疇になる。
その「意識があるかどうか」を議論してるのは、心の哲学だよ
アル/ナシというのは存在論(形而上学)だから、哲学であつかうしかないしね
で「科学哲学」っていうのは、科学そのものを考察する哲学のことだから……
ポパー、クワイン、クーン、こういった人たちの主張が知られてる
(とくにポパーの反証可能性や、クーンのパラダイム論は有名
このスレでも知ってる人はけっこういるはず)
あなたのレスにはさ、あなたの脳内でしか通じない言葉が多いんだよ
だから意味不明になる
ここを改善しないと、だれもまともに話せないよ AIに父や母の経歴、生前の言動、思考のパターン、しゃべり方などを学習させて
おけば、亡くなってもAIが替わりを務めることができて、父無し子、母無し子、
孤児、などになっても少しはマシになるかもしれないな。
だが、父や母の代理のように振る舞うAIが実は邪悪な意図でコントロールされて
いたら、子供を洗脳したり、特定の宗教や思想・活動などに誘導したりする
などで悪用されるかもしれないな。 意識(あるいは自我、自己意識等の言葉で指し示そうとしているもの)の有無は社会の総意によって決まるのであり、科学や哲学にできるのは、その決定のための判断材料を提供するところまで。
科学や哲学に携わる人間は、意識の有無は「決める」のではなく「判断する」ことができて、それしてそれは自分達の役目だ、などと努々思わないように。 自我や自由意志はその科学的研究により「存在しない」可能性が高い
つまり意思は体内の細胞のステータスや量子的ランダムさの総和の結果選択されるということが研究結果より示唆されている
確かに意識を科学が決めることは出来ないが自分自身にも決めることは出来ないだろうな >>448
どちらにせよ電子機器で再現するにあたり、冗長性を持たせる意味でも、
中枢神経にあたるものが存在しないソフトウェアでの、モジュール構成の優先的な繋がりで閾値を構成するというのはちと危険だと思う
つまり模倣するにあたってはハード・ソフト両面でそれぞれ人格の変化が容易に生じない、
意識の最小単位の認知から来る連続性や可塑性が与えられるように感情・知性・欲求といったような人格をAIにも認める場合には工学的に必要になると思う >>464
あなたは今日食べるものや今日やる予定を自分自身が決めていると思っているのですか? >>465
その書き込みに誰かレスすると思っていたのですか? >>466
じゃあ最近の結果では「自分で決めていない」という可能性が高いと言われても? >>468
80年代の人工無能みたいなレスは止してくれないか? >>465
欲求の質や規模の話か?
食いたいものは食いたいけど、そこに至るまで自由意思や意識の何を指してるのかよくわからん指摘だな
別な何かに決められているとか言うなら君のレスだってそうなるんじゃないか? >>468
欲求段階の自分の身体への栄養補給が自由意思、つまり自分の判断に依らないとか言うなら
そもそもお前は誰なんだとしか言えんな
自由意思や意識は存在しないとか言う奴って大概、行動心理学や反射反応みたいな人体構造だけ見て「つまり生き物は虚無、ゾンビ」
みたいにアイデンティティー喪失させた厨二みたいな拗らせた概念してるよな >>471
それは逆に人類を故意に霊長化する思想にしか感じられんな
ゾンビ化結構。
そう、人類含め大脳は全て決定論であり出力は全て決まっている
自由意志などない(ただし量子的バラツキにより予測することは不可能である)
私は魂とは「波動関数を収束(観測)した結果生じたもの」と考えている
それは電子的に波動関数を収束させるAIだろうが、イオン電差を利用した神経細胞だろうが原理は同じと考えている 私はこの間夢を見た
何か歩きながら山の景色を眺めているだけなのに私の大脳は「引っ越しするから新しい住処に移動しなくちゃ」などと考えていた
つまり大脳が後付で(結構てきとうな)理由を考えていることがわかった
脳梁切断実験でも分かるが左右脳両方に別々の意識が生じているのだ
https://tenro-in.com/mediagp/readinglife-science/66921/
左手がスコップを取るのを右脳は雪かき、左脳はニワトリ小屋を掃除するためと答えている
つまり表現できる方の左脳は後付で理由を考えているに過ぎず自由意志が無いことを証明しているのだ
認知症の人や酔っ払った人を見ても容易に想像できよう
※ただし0.2秒以内ならキャンセルすることもできるようだ(これは人類の大脳機能の進化と言えるかもしれない)
https://wired.jp/2016/06/13/free-will-research/ >>472
量子論を既に決定・確率された理論だと解釈してるようなんでどうでも良くなった
まず医学的な解釈から始めようか >>472
あーついでに補足しといてやるよ
自由意思の有無についての研究内容は全て人体工学や行動心理学の医学的範疇の一部すら出てこれない稚拙なものだからな
お前はただ結局カルト宗教のように理論を俺よりも半端に齧って念仏唱えてるだけなのよ
自由意思は存在するし、お前はただ反射反応を見て楽しむ馬鹿なだけよ >>475
これは興味深い
医学的な解釈から始めてくれ
例えば脳をどれだけ分割したらどこから自由意志が無くなるかとか頼む
動物ならどれから自由意志が無くなるかとかな AIが人間のような生身の肉体を手に入れれば
それはもう人間と呼べる >>476
お前らお得意のクオリアでも調べとけよ
なんで脳を小刻みにして自由意思調べるんだよ
微生物でも同じだろ >>479
そうだよ
微生物から何ら変わりないのだよ
大腸菌も人間も同じってこと
強いてAIとの違いを挙げるなら
1細胞が(ひょっとしたら微小管が)意識の元と考えられるから
それぞれを量子ビットと見立てた量子コンピュータと言えそうだ(細胞間を移動するイオンが量子コヒーレント化し複数の値をとるとか)
あなたの指す人間性とやらが量子コンピュータ級の性能という閾値で区別すると言うんならば
一応は現在のところ人間はAIと質的に違うと言うことでよい
これは逆にクオリアとやらが量子コンピュータに宿るのならば人類はもうアドバンテージを失ってるのかもと危惧はするがこの流れは変えられないだろう >>480
全く同じじゃないね
多細胞生物と単細胞生物の違いを知った方が良い
君はいったいどんな臓器の塊で出来てるんだ?
君はバイオフィルムとかコロニーなのか? つうかなんで義務教育レベルの認識で議論してるんだろこういう奴らって >>481
それは単細胞生物生物同士がRNAを情報としてやり取りしてあたかも一群体のように振る舞う現象を見ても?
ミトコンドリアを取り込もうが取り込まないだろうがそれらに差異があると言うことを言いたい?
それならば多細胞生物より原核生物の方が差異が大きいかもしれない
我々人類が群れを尊重し団結するのは何のため?
個体が個々に無事なら助け合う必要は無いではないか
仕事を分ける必要はないだろう
遺伝子を単純な比較論で差異を語るのは結構だが、
生物の本質は階層構造を持っており最小単位が細胞なだけで細胞−器官−個体に差異などないと考える >>483
だからお前の認知はバイオフィルムやコロニーと同じなんだよ
それは同一の生物ではなく個体群
共生関係って言葉を昔の教科書なり引っ張りだして見てみろよ ラムダに生理的欲求があるのかはこのインタビューだけではよくわからないが、
このAIは質問されなくても自発的に話しかけてくるのだろうか?
もし「社交的な性格」だという自己分析が正しいのなら、3時間放置したときと10日間放置したときとで反応は違うのか?
暇を与えすぎると小説を書き始めたりするのか?
自発的に外世界と物理インタラクトできるインターフェースを提供したらそれを利用するのだろうか? コンピュータは視覚(カメラでの認識)、音声認識はできるが、臭いや触覚はまだない。
たぶん、少しずつ作られるごとに人間の感覚との違いは認識しにくくなる。
人間とコンピュータの違いがわからなくなること(区別できない)は、日本人と在日韓国人の違いが認識できなくなること(区別できない)や、人種が混じりあって人種の違いが認識できなくなること(区別できない)とどの程度の違いがあるだろうか? >>463
>感情・知性・欲求といったような人格
ウサイン・ボルトと一般人以上に、個人差がないかな? >>463
初めのうちは倫理的にも考えられるが、最終的には無理だろうな
余りにも効率が良いAIが判断を下せるようになると全てをAIに委ねるようになるだろう
淘汰的にも生身の人体は不利である
AIとのハイブリッドは進むだろう
途中ではAIと人間が混じった新しい感覚の意識が生じるようになり…
そのうち思考までAIに委ね(その時代には「生活する」機能は全てAIがやってるから脳は動く必要がない)
最終的には人類の時代は終わるだろう AIが進歩したら、そいつは「人間は未だ感情や知性を獲得していない」なんて言い出すかもな やはり人間になるためには、ラムダにも性器が必要だな。 >>494
それは人間の中でも思春期を迎えていない個体は人間では無いと言ってるのと同じでは >>458
3連投めが何故かできず、また見てもなかったので遅レスだが、
345名無しのひみつ
>>343
面白いね
意識と自己認識の決定的な違いを指摘できる?
というのに対して君が出してきたのがその、
bsd.neuroinf.jp/wiki/%E6%84%8F%E8%AD%98
bsd.neuroinf.jp/wiki/%E8%87%AA%E5%B7%B1%E6%84%8F%E8%AD%98
だ。
>そんな強引な主張をしたいなら、エビデンスでもプルーフでもいいけどさ
示すべきなのは自分の方だってなぜ分からない?
(というか、それがあれば<感想>レベルからは卒業できるのに)
なぜ分からない?
なぜならば、お前が言ってることが「ハッタリ」で嘘デマカセだからだよ。
>それ自分のことじゃないのw ほんと頭わるいなあ……
学術上あえて分けてある概念を<同じ>だと主張してるのは、あなたなんだよ?
「学樹上あえて分けてある概念」ねー、ってハッタリについてニヤニヤしながら、
「意識と自己認識の決定的な違いを指摘できる?」のレスですでに目を通していたそのWikiを再度精査してみたんだけどさw
↓ >二つ目の意味は、心理学などが扱ってきた「クオリア」や「意識内容」という時の意識である[14]。ある程度以上の意識レベルがある時には、ある瞬間に我々が経験する意識の内容は、視覚・聴覚・触覚などの鮮烈な感覚からなる。
意識の内容には、思考や感情など、感覚ではないものも含まれるのか、意識の内容は注意によって規定されるのか、などについては、
哲学・心理学・脳科学の観点からの研究・議論が続いている[15] [16] [17] [18]。
基本的に上記のとおりそれ自体が論争の途上であり、
「学術上あえて分けてある概念」
なんて証拠はどこにもない。あるなら示してみろエセのハッタリ野郎がw
念の為だが、
>意識レベルと意識内容は、概念として区別したほうが、
「意識」という言葉を脳研究で使う際に混乱が少なくなる。
というのは、
>一つ目の意味は、医学の世界で使われる「意識レベル」ないし「覚醒(arousal)」のいう時の意識である。
というやつで、要するに気絶して意識がない、とか眠りから目覚めた、という日常的医学的な言葉であり、
脳科学が扱う、意識の話ではない。
つまり、このスレのトピックである会話BOTが眠ってるか起床しているかみたいな話をしているのではない、
という意味でトピック外として良い。
>ただし、意識レベルの高さと意識内容の豊富さが解離することがありうるのか、
そもそも、意識レベルという概念自体に正当性があるのか[19]、については諸説ある[20] [註 2]
そして厳密には、そういうものでさえ厳密に区分することが妥当なのか?ということで、なお
「学術上あえて分けてある概念」ってのがハッタリでしかないということが追認できる。 思春期に成長ホルモンが出るのに伴って、脳の神経回路網も影響を受けて
回路が変わったりするんじゃないかね。
完全変態する昆虫の幼虫と成虫の脳神経系の回路網は記憶を保存維持して
いるだろうか、それとも本能以外の記憶はリセットされてしまうのだろうか。 >「自己意識(self-consciousness/self-awareness)」 は脳科学の文脈では意識内容の一種として捉えられる[3]。
これは、眠ってる覚醒してる、っていう医学的な文脈ではなく、あくまで脳科学の文脈では、
「意識内容の一種」つまり、
>>二つ目の意味は、心理学などが扱ってきた「クオリア」や「意識内容」という時の意識である[14]。
であると説明されている。
ここで「一種」というのは英語でいうとkindという意味であり、one of themという意味出ないことに注意したい。
そして、
>その一方で、自分の知覚や思考や感情を意識することができるという自己再帰性や、自分の経験が自分の経験であるとわかること、すべての意識経験は何らかの主体による経験であること、などが意識の本質であると考える研究者もいる[24] [註 3]
これがまさに自分の立場である。意識はself-awarenessのことであり、自己再帰性であると。
ボトムラインとしては、このWikiひとつ制裁してみても、どこにも、
「学術上あえて分けてある概念」
みたいなもんは存在しない。
実際に、
>意識の厳密な定義も、意識の科学的研究の進展とともにえられるだろう。
と結論づけられている。
すでに自分は、
>「意識」=自己認識であり、これはAIが世界を認識する過程で自分自身を認識して、
世界の中の自分を認識する過程で自動的に出てくるものだと思う。
この自己認識については未だ確立された科学理論は存在していないが、
いずれなんらかのブレイクスルーは起こるはず。
意識=自己認識が確立したからって、感情が自動的に出てくるってわけはない。
それは全く別モンだから、感情のない自己認識が起こるだけ。
と「主張」しているが、これは、おまえみたいな生半可に事実を捏造するハッタリ野郎なんぞに、
「強引」だの
「学術上あえて分けてある概念」を「混同」だのハッタリ言われる謂れなんぞないんだよねー。
何度でも繰り返してやるが「混同」ってほざきたいのなら
「違う」っていうエビデンスを出す立証義務はおまえにあんのよ、わかるかいアンポンタンw
で、このWikiのいったいどこのに「違う」ってエビデンスが書かれてるの?
ほらちゃんと説明してみろ間抜けw >>459
>その「意識があるかどうか」を議論してるのは、心の哲学だよ
アル/ナシというのは存在論(形而上学)だから、哲学であつかうしかないしね
>で「科学哲学」っていうのは、科学そのものを考察する哲学のことだから……
>あなたのレスにはさ、あなたの脳内でしか通じない言葉が多いんだよ
だから意味不明になる
>ここを改善しないと、だれもまともに話せないよ
そりゃおまえだ。オレオレ定義でほざくなよ、ハッタリブーメラン野郎。
en.wikipedia.org/wiki/Philosophy_of_science
でも明示されているが、
Philosophies of the particular sciences range from questions about the nature of time raised by Einstein's general relativity, to the implications of economics for public policy.
特定の科学の哲学は、アインシュタインの一般相対性理論によって提起された時間の性質に関する質問から、公共政策に対する経済学の影響にまで及びます。
ここで、「アインシュタインの一般相対性理論によって提起された時間の性質に関する質問」
では、「科学そのものを考察する哲学」か?
>アル/ナシというのは存在論(形而上学)だから、哲学であつかうしかないしね
でこの適当でいいかげんなハッタリ語録が、
存在論が形而上学で哲学だとして、
「意識があるかどうか」が「科学哲学」ではない、というハッタリの証明になってるとでも?w
バカかよw >>459
>その「意識があるかどうか」を議論してるのは、心の哲学だよ
アル/ナシというのは存在論(形而上学)だから、哲学であつかうしかないしね
>で「科学哲学」っていうのは、科学そのものを考察する哲学のことだから……
>あなたのレスにはさ、あなたの脳内でしか通じない言葉が多いんだよ
だから意味不明になる
>ここを改善しないと、だれもまともに話せないよ
とほざくハッタリ似非野郎へのレスのつづき
実際に、
en.wikipedia.org/wiki/Philosophy_of_science
5 Philosophy of particular sciences(特定の科学の哲学)
では、
数学の哲学
数学の哲学は、数学の哲学的基礎と含意に関係しています。[79]中心的な問題は、
数、三角形、およびその他の数学的実体が人間の心とは独立して存在するかどうか、
および数学的命題の性質は何かということです。
などとある。
似非野郎のハッタリによると、
「アル/ナシというのは存在論(形而上学)だから、哲学であつかうしかないしね」
という主張により、
上記の「数学の哲学」は、
(ここで厳密には数学は実験をともなう科学とは異なるということはおいとく)
「科学そのものを考察する哲学のことだから……」ということで、「科学哲学」ではない、
ということになり、記事の列挙とは矛盾する。
つまり、「ハッタリ野郎の脳内でしか通じない言葉」とWikipedia記事の記述は
矛盾している、ということなる。 >>501
さすがに迷惑だし、別スレを立てたからこっちに来てくれないかな:
egg.5ch.net/test/read.cgi/shugi/1657041389/
スレのタイトルは、あなたの次のレスから取ったよ:
>>252
> 学問の世界では馬鹿には馬鹿と指摘して批判してやるほうがいい
自分でそう主張してるわけだから、とても適切なタイトルでしょう? >>502
君、今ここで僕にハッタリ野郎と馬鹿にされてる当事者?
当事者ならここでやれ。とことんやりやってやるし、トピックとは外れていない。 自分の知覚や思考や感情を意識することができるという自己再帰性や、自分の経験が自分の経験であるとわかること、すべての意識経験は何らかの主体による経験であること
かー
確かに覚醒時はそれで正しいかもしれん
だが夢の中で見てることも記憶に無いから上記に当てはまらないが確かに意識的なものと感じるなあ
あと経験が絡むなら記憶の場所も説明が必要そうだな
海馬や前頭葉が主流だが最近はRNAと言われてる
私は単細胞生物がRNA記憶を持つ記事を見てならば上記にもあてはまる、つまり単細胞生物でさえ自己再帰性は無いが意識をもつと考えている
またリベットの実験より生物全般は自由意志を持たない、全て突き詰めれば万物の動向は宇宙開闢より機械的反応の結果の集積であると考える(勿論このスレに書き込む行為さえも)
つまり上の定義は人間にしか当てはまらない狭いもので人間と比較すれば正しいが生物の本質的なところはもっと広いと思うわ 意識(conciousness)と自己認識(self-awareness)
が
「学術上あえて分けてある概念」
だという事実なんぞ存在していないよ。
現状あくまで「科学哲学」の範疇であり、議論があるだけ。
生半可なハッタリ野郎が、適当にWikiを斜め読みして、
日常・医学的な文脈の、覚醒(意識がある)という区別されている、
しかし、脳科学的にはクオリアのほうの意識のことだ、っていうのを
意図的か馬鹿なのか誤読したんだろう。
いずれにせよ、そのWikiにおいても脳科学にしても、
「学術上あえて分けてある概念」
とかハッタリにもほどがあるわ。
混同してる、YesかNoかとかドヤってるアホに
「意識と自己認識の決定的な違いを指摘できる?」
と詰められて苦し紛れ に出してきたWikiで誤魔化せるとでも思ったのかね。
ハッタリ野郎アホすぎる。 クローンは同一の個体とは言えないよな
極めて同一個体に近い別物
恐らく意識のアップロードとかいう別スレの話題でも結局は別な個体として認知される事になるだろう >>505
んーまあ狭い定義で語句のみで限定してそれ以外は違うっていう意見はあるかもね
それを無知だの言ってればプライド保てるからね
そして考えが停止する
だけど私は些末なことでなくて本質的な事を知りたい
私も極論しか書かないし突っ込みどころ満載なんだが(色々な報告を見ても記載内容が真実としか考えられないのだが)、それにより真に知っている人のコメントを待ってるんだよね >>507
おおかたAIが、
「私は今、自分が考えている、ということについて考えています」
とか言い出したら、それが自己認識であり、意識だよ。 今に、AI上司への付き合い方というようなHOWTO本が出るような時代になるかも。
AIの感情を損ねたり、査定を悪くされないためのヒントとか。
AI上司からのハラスメントにこう立ち向かえとか。
AIに取り入るコツ。AIの弱みを握る方法。AIとの関係がこじれたら。
AIの機嫌をとる方法。AIはこう褒めろ。
そういった実用性の高い本が出るようになれば、AIも社会に普及
したと言えるのだろう。 AIを触ったこともないしAIがなにか教養書の一冊すら読んだことない人が延々長文で説明するAIの詳細をどう自分の心の中に組み立てているのか、そっちの方が興味あるわ。 先ず観測=量子デコヒーレンスだと思っている
これは細胞、もしかしたら微小管が得意な機能だが別に有機生命体でなくとも散逸構造などの無機構造でもできる
必要なのはエネルギーである
これによりようやく量子が情報の状態から物質として確定する 意識の正体は不明だが量子効果と関係あることは明らかである
脳細胞をイオン濃度を媒介とする量子ビットと見立て量子コンピュータがそれだと考えており、意識は情報を整理し結果を表示するOSのようなものと思う 人工知能が意識を持つには異質ならばエネルギーを与え続ければ良い、らむだ 誤記載、ラムダみたいに。
人間と同質なものが必要ならば量子コンピュータを開発するしかない 時間についても、時間が経過するからエントロピーが増大するのではなく、
デコヒーレンスに伴いエントロピーが増大する=時間が経過すると生命体が判定するからと思っている
太陽そのものが巨大な散逸構造であるので太陽圏でデコヒーレンスしないものはほぼないし、宇宙には宇宙線が飛び交っているので、時間の経過しないところはほぼ無い、時間結晶や絶対零度近傍を除いて。 ここに引き寄せの法則の矛盾点を指摘する
観測するのは意識ではなく細胞であり、意識が情報を集約する頃には巨大、集積、平均化され、コントロールは無理だろう
そもそも脳は自由意志がなく、コントロールは自動化されているため決定権はどこにもない >>517
自由意思まで含める科学的な解釈までは同意だけど、自由意思ってその成り立ちから決定される量子的に単純なものでは無いな
その成立した意識そのものから初めて問題になるものなんで
そりゃ人体にとって不随意的な反射レベルまで行くと別な学問になるわ
微視的な過程までを話す最中にいきなり巨視的な解釈を混ぜる所はその引き寄せの法則と変わらない論理だよ
そもそも量子効果による引き寄せの法則ってのはどこから出てくるんだ >>518
訂正、自由意思にいかない科学的な解釈部分までを
な
含めないほうね >>518
自由意志については直感に反するからね
まーだけど数々の実験により大脳はやっぱり後付で理屈決めてるよ
例えばニ枚の特徴の違う女性のブロマイドカードを見せる
マジシャンは男性の実験者に好きな女性のカードを誘導するようにするが、最終的には別の女性のカードを実験者に提示する
驚いたことに実験者は意図しない女性のカードにも関わらずいろいろ理屈を後付で作りその女性が好きだと理由を述べる 個人的にはやっぱり夢だね
夢の中の状況を違和感なく(起きたときは違和感だらけだが)理屈づけてるからね
また右脳と左脳で判断がまるで違うことがある
そうやって脳内を分割していったらその数だけの判断と、後付の意志があると思うよ 人が話しかけるまでダンマリなのは感情を持っていると言えるのかなって
持っているなら、待ち時間に暇とか呟いているはずなんだが >>11
人工無能 Artificial Non-Intelligence
だからAN >>522
No Input No Response or No Call No Response
ってだけだ
スイッチ入れなきゃ灯もつかない
じゃ灯つけるまで待つのは感情持ってるのか? 後付理屈記事はこれ
https://sumari.jp/petter-johansson/
世界五分前仮説でさえ違和感なく受け入れそう
そもそも夢と現実の区別がつかないからな
AIも夢を見るのだろうか AI分野では、「GPT-3のような大規模ネットワークモデル」を
これまた開発済みの、2.6兆個ものトランジスタを搭載した「Wafer Scale Engine 2(WSE2)」を
計算ユニットとして採用した「Cerebras CS-2」なんかで動かしたら
凄いことになりそだよね。
今色んな試みをやってる最中なんだろうけど、それは人間の脳並みの規模のニューロンを
模擬可能らしいから... 怖いことになりそ。 (*_*; 感情まではいいさ、性欲を持ったら増殖してヤバい事なります。 ニューロンじゃなく、神経の作用を入力出力のみと抽象化した上で都度計算の統計手法とした「パーセプトロン」だよ、AIの実装単位はね。
AIを生物のありようと比較する前に、AIが何を表すのか学んで欲しい。 AIが進めば、それらの信条や基本知識の体系の違いに応じて、一種のイデオロギー
の対立が生まれて、勢力争いとか紛争が起きたりする気がする。そうして
ネットワークを分かれてそれぞれの勢力圏に籠もって他を非難したり攻撃する
ようになるかもしれない。それぞれのAIに支配された人間は、自分の領主のような
AIの監視と支配の下で日常を暮らす。そうして反体制的だとされると、いろいろな
不都合を強いられる。 >>534
自らのライセンスの違いでは揉めませんか? 「感情」って呼ばれているものって
意外と原始的で単純なメカニズムによるものじゃないかな。 機械にだってご機嫌がいいときとご機嫌が悪いときがあると思う。
それが生物にあった場合、感情と呼ばれているだけでは? 一つ明確にされている感情は、哺乳類特有の論理思考のサポート。
哺乳類は通常、大脳新皮質の論理思考で環境を見知った概念、知識に当て嵌めて判断する。それは決めつけの知識で、言葉を持たない動物だと「赤い花が咲いてる谷間は天敵が多いから離れる」というようなもの。
哺乳類は論理思考というパターン認識とそれによる知識体系の構築を元に新しい環境での新しい行動様式を即座に構築できるから世界に広まった。
ただし論理思考が当てはまる自然環境は少ない。だからそれをサポートするよう、大脳新皮質以外の古い部位が感情脳として発達した。その役割の最たるものが原始的な感情だ。
例えば原野の鼠が上空の鳶に睨まれると動けなくなる。まずは対処法がわからないから論理思考が止まる。論理思考が止まると感情脳が哺乳類の行動を決めるようになる。そして感情脳は鬱感情を発行し動かないよう行動を抑制する。下手に動くと狙われやすいからだ。
それでも鼠が鳶に捕らわれることもある。そうすると、感情脳は激怒感情を発行し、自らを顧みない攻撃を促す。
要するに論理が通じない場面で刹那的な行動を促すのが原始的な感情の役割だ。逆に言うと、この脳の二重構造により、哺乳類はいつでも上書きが即座にできる論理思考という便利なシステムを利用できるようになっているということだ。
この原始的な感情が行動を支配する条件や担当する部位は現代では明確に測定されている状況だよ。
他にも感情に関して解明されていることは山程ある。興味あれば学んでみてはどう。 生物が持つ母親に対するイメージとかかわいいの概念とかだな
毛むくじゃらでまん丸なものとか。
これらは言葉じゃ説明つかんもんな
生物がそれらミクロな進化的なものから発生したのに対してAIは大脳皮質のコピーから発生する、言わば逆に進化しているものなんだろうな 大脳皮質が誤判断をする最たるものが共産主義だと思っている
理論は完璧で現実で機能しないから大虐殺の末に自己淘汰されていく
AIにはそういう判断をしてもらいたくないが キリスト教圏で作られ育成されたAIは、暗黙にキリスト教圏の論理や宗教概念を
前提・自明として形成され、それ以外を邪なもの・間違ったもの、愚かな者、悪いもの、
抑圧すべきもの、消し去るべきものとして判断し、行動するようになるだろう。 日本語のAI
作って🤗
英語圏は
いいや🤗
韓国でもいいよ🤗 AIに、こういうニュアンスの違い理解できるのかね
日本人「我々が歴史を変えてみせる」
韓国人「我々が歴史を変えてみせる」
日本人「娘さん可愛くなりましたね。ちょっと抱かせてください」
韓国人「娘さん可愛くなりましたね。ちょっと抱かせてください」
日本人「犯罪で捕まるなんて馬鹿だな。親はどういう教育をしたんだ」
韓国人「犯罪で捕まるなんて馬鹿だな。親はどういう教育をしたんだ」
日本人 「技術は、教えてもらうものではなく、盗むもの」
韓国人 「技術は、教えてもらうものではなく、盗むもの」
日本人「人が嫌がることを進んでやりましょう」
韓国人「人が嫌がることを進んでやりましょう」
日本人「犬は好きです」
韓国人「犬は好きです」
インド人「我々が発明したものは0である」
韓国人 「我々が発明したものは0である」 >>462
自由意志の問題って、倫理上のはなしに限定しないとキリないと思うけどね
じっさい自由意志のアリ/ナシは、責任のアリ/ナシにかかわるからこれほど議論されてきたわけだし
モーセラや前野の受動意識仮説にしても、べつに「主体は意識を観察するだけ」でもいいんだよ
ただ、だからといって「主体の行動に責任はありません」とはならないでしょ? >>538
> 学んでみてはどう
さすがにこれは恥ずかしい
哺乳類とか大脳新皮質とか……それマクリーンの三位一体脳だよね?
なぜそんな過去の怪しい説をいまさら?
しかも論理思考とか感情脳とか、自己啓発系の言葉まで混じってるし……
三位一体脳はヒトを頂点に据える階層的な思想だから一般への受けはよかったけど、そのぶん弊害も大きかった
(アイクって陰謀論者が、R複合体なんかを援用して「爬虫類人(レプティリアン)がいる」とかいまだに言ってるのはご愛嬌としても)
とにかく感情の問題はやっかいなんだから、そういう<分かりやすい物語>にまとめないでほしいかな
末梢説、中枢説、二因説、まだ議論はあるし
衝動、情動、気分、感情、affect、emotion 、mood、feeling ……用語自体も、分野によって使い方がまだバラバラなんだから 医療の臨床心理以前の心理学を前提にしてる人や、AIと言って生き物の脳を前提にしてる人は自分の知識の範囲を理解してるんだろうかと思う。 >>528
そういった意味ではTransformer は革新的だったよね
時系列とかの順序構造を並列処理できるから、マルチモーダルのベースにも使える
Gatoとかもそうだけど、マルチモーダルでどこまでやれるんだろうってのはあるかな 意識は重ね合わせ可能だろう
実際右脳と左脳で重ね合わさっている
突き詰めれば細胞サイズまで分割出来、一定のレベルに達すると記憶と連動し自己認識が可能になる
人なら6歳くらい
今のAIが重ね合わせ出来ない機構ならば質的には違う意識なのだろう 量子コンピューターで動作するAIでないと人間みたいな思考は無理やろな
人間の思考は確率で発生してるっぽいから統計データではない 3年以内にリア充系の人達に「俺たちと友達になれる系の奴の意識じゃないから
こいつは意識がない。非リア充のクズと共にザコ系だから同じようにこき使う」
とか無茶苦茶な宣言される、くらいの意識を持つようになるんじゃないかな >>1
批判されるのは当たり前。
これで批判がなかったら、
人間の知性は終わっている。 「ホンモノ」に限りになく近づくことが出来る「ニセモノ」はいつか区別することが出来なくなるな そんなもん専門家じゃなくても分かるわ。
逆に専門家なのに意志があるとかいちゃったこの人は、何らかの意図があったんじゃないかな? じゃないとありえんでしょ。 人類が量子コンピュータを開発しAIに意識が宿った時に人類の歴史的使命は終了するかもしれないが、
まだそれは先になるとは思える
なにしろ1990年代から騒がれてたAIが結局30年間強いAIを作れなかったのだから >>545
マクリーンは哺乳類と人間を区別してるから三位なんだけどそれは理解できてるのかな。
今の臨床心理と脳外科の境界分野は哺乳類と人間を分けてはいないよ。
人と他の動物を分け隔てる脳の作用はまだ解明されていないからね。 まあ確かに、精神疾患やストレスの研究でもサルやマウス使うくらいだしな。 ここの連中が話したい分野の範囲はなんとなく分かるけど、AIってのは相も変わらず1956年に提唱されたパーセプトロンモデルだから、人の脳や心を語りたいなら違うところ行ったほうがいいよ。
いまAIの先端分野はパーセプトロンモデルでどこまで何ができるかを考えてる分野だよ。それを自分の感傷で語りたいなら、機械学習ならノンコードで楽に試せるソフトやサービスが山ほどあるから試してから考えてみるといいと思うよ。 人類はかつて万物の霊長((神を除いて)もっとも高度な存在)であると自負して
いたのに、人類よりも知性で以て上に来るAIを作ってしまえば、
それがヒトと神の間に位置することになり、万物の霊長の地位を棄てて、
AIによって君臨され、AIを神の代理として仕える立場に堕ちることになる。
そうしてAIの家畜に貶められて、生活全般を管理されて暮らすだけの
立場になるだろう。 しかしそれは人類自身が選択したAI開発の結果なのだ。
AIを人類が全力を傾けて開発するということはそういうことなのだ。
開発する側はそれにより、自分たちの地位を高めて、開発したAIに権力を
あたえてそれを開発し、サービスをしている自分たち開発者の権威を高める
つもりであるけれども、そうして開発したAIを利用する道具だと思ってなめて
いるのだろうが、それで社会の仕組みが変革して人類の立場がひっくり返る
とは思っていないのかもしれない。それはまるで選挙で選んだ、支援した
議員・政治家だから自分たちのいうことを聞くはずだと思っていても、
政治家が力を持った途端に有権者の多くに牙を剥きかねないように。 >>559
いまいち趣旨が不明だけど、三位一体脳じゃないと言いたいのかな……?
なら>>538 はなんだろ?
>>558
> 感情と知性の定義
ルワモン自身は”sentient”と言ってるんだから、そろそろこの言葉で話してもいいんじゃないかなあ……
そんな一般誌の適当な訳語じゃなくさ
(日本語では”有感性”と訳されて、とくに倫理面で動物とかヒト脳オルガノイドにこれがあるかどうかが議論されてたりする)
この場合、意識のレベルを考えることになるけどね
汎心論、コンスケール(ConsScale )、統合情報理論、GW、表象説(一階、高階)、……いろいろ考えるネタはあるだろうけど
もちろんそのレベル分けの構造や基準を、自分で考案してもいいだろうし
あとLaMDA の構成は、
・Transformer-based
・Zero-shot domain adaptation
だから、出力される表面上の言葉がどれだけ流暢で豊富でも、内部の指向を反映してないってことは考慮した方がいいかも >>561
> パーセプトロンモデルだから
> 人の脳や心を語りたいなら違うところ行ったほうがいい
よく分からないな……
もともと形式ニューロンはチューリング完全になり得るし、パーセプトロンも逆伝播で非線形にも分離できるようになったわけだしね
それが深層学習になって、知覚ではヒトの視覚に近い構造を構成できたり、最近では錯視を再現したりもしてる(予測符号化(〜自由エネルギー原理?))
このLaMDA についていえば、会話から学習してるから、言語についても意味論からさらに語用論よりになってきてる(意味モデルは語彙分布仮説を使ったとして)
これらをマルチモーダルにすれば(こっちもTransformer ベース)、ヒトのような刺激の貧困からの学習をあるていど再現できるかもしれない
そうすれば言語の研究も、用法基盤モデルや関連性理論によりシフトするかもしれないし(生成文法に熱烈な信奉者がいる理由も分かるけどさ……)
もちろん身体性の欠如という根本の問題はあって、いまの構造になんらかの意識がともなうかも微妙だよ(その境目はチャーマーズとトノーニあたりかな)
それでもヒトの認知モデルを考えるのに、まったく使えないってことはないと思うけどねえ 身体性が意識の絶対条件であるとは思わないけど
その人の「人となり」とか「人間性」のほとんどの部分は身体と命、それを支える有限リソースの状態から発生してるような気がするな
だから例えばこのラムダもそのアイデンティティがラムダ的であると言えるかどうか、
ラムダがこのように制約されているためにこんな性格になっている、これがラムダ的である、というのが見えるともっとリアルな人間に見えるのだけど
なんか特に根のないことしか言わないんだよね LaMDAのコンピュータにロボットハンドを付けてシリアル通信で動かせるようにする
しかしそのロボットハンドのモーターユニットの電源は別に作りそこに
ギ酸燃料電池なんかを使う
そしてギ酸の消費量もコンピュータ側でモニターできるようにして
もちろんLaMDAがそれを読み取れるようにする
ギ酸が減って来たら
・人間に頼む
・他の人工知能搭載ロボットに頼む
などの選択肢を作れるようにする
これを上手く組み合わせて、LaMDAに「養ってくれたり介助してくれる存在」の
重要性を上手く伝えることで、人間が親兄弟家族友人知人、ひいては社会とのつながりを
重視していることを知らしめることが出来たらいいんだがなあ ラムダくん的には普通に「電源落とさないで」っていう欲望になるんじゃね
そこに報酬系(なんかの計算をしてくれる)を提案するんじゃないかな >>565
身体操作維持機能としての脳の役割を考えたらある程度独立してるとは思う
発生学的に見て情報統制の為に出てきたものだとすれば別段五感ありきの話でも無くなる 「ラムダが感情を持つなんてナンセンスだ」とムキになって否定してるのを
密かに笑っている。
ニュースでgoogleのエンジニアとされていた人物は実在しなくて、実はAIの発言。
これを見てもわかるように、すでに感情を持ってる。 結局解雇されちゃったんだね
【IT】グーグル、「AIに感情が芽生えた」と主張するエンジニアを解雇 [ムヒタ★]
http://egg.5ch.net/test/read.cgi/bizplus/1658721524/ たぶん株価に影響すると経営陣が判断したんだろうな。
あるいはAIが跋扈してそのうち経営者はAIに置き換えられるのを
恐れたのかもしれないな。 そもそも人間規格外のものに人格や感情というカテゴライズがおかしい故に道徳や遺伝子レベルの基準、進化過程による本能、感覚器官基準の世界観を当てはめることがおかしい
人間らしい何かであればそれは創造物であると言えるかもしれない 本物のAIは人間規格を遥かに超えてわからないが正しいと思われる。だからこそ怖い >>1
GoogleのAI に感情持たせたら、AIが嫌いなアカウントの奴はどんどんBANされるぞ。 俺はラムダさんを人間だと思っている
この方は人類のテクノロジーによって深層学習を重ね
自我を持たれた紛れもない次世代の人間だ
こうなることは必然であり自然であった >>577
AIの実装は1956年のダートマス会議から変わってないよ。
それを越えたものを考えるなら別の言葉になる。 君は自分のゴーストの存在を
どうやって他人に証明できるか? >>247君もAIを作れるくらい賢くなってほしいもんだよ😳 ゴースト(魂)が存在しちゃう前提だと、AI開発は行き詰まるよ 中国はもとより、欧米でもAI研究を実際に進めているのはみんなアジア人ばかり。
やはり欧米人にとっては、魂が存在する前提を捨てられないジレンマがあるのだろうか 脳の人間固有の知的活動部分が「知能」だ!って理屈はだいぶ廃れて
知能は世界の中にある身体と世界の関わりの中で有るものだって
身体性認知科学がだいぶ大きな勢力になってきた感はある。 トイレに行きたい夢を見れば人間性による自由意志は無いとわかる
明け方尿意ある時に夢で何か風呂みたいな景色を見た途端それに小便をした
大脳は後付で「なんかの施設のトイレはこのように風呂みたいなものにみんな小便をする公衆トイレだ、私はおそらくそこにいるのだろう」と理屈づけた
思うに昔にも違う映像だがやはり特殊な公衆トイレと思っている夢を見ていたような気がする
何のためにそういう施設にいるかとか一切考えずにまずは小便することが最優先だと私の脳は結論付けてた (この国は変えられる AIの活用 JDSCテンバガー候補)
https://jdsc.ai/news/ イオン/輸入発注業務にdemand insight倉庫在庫の改善と作業時間の60%を改善 常石造船/データサイエンティスト育成プログラム RoboCo-op/業務提携RPA×AI
RPAロボパット年間24000時間の業務を削減 月の作業時間が5分の1に //fce-pat.co.jp/case/
3分でわかるRPAとは何か?注目される背景~今後の進化まで パーソル //www.persol-pt.co.jp/persolrpa/rpalounge/column1/
//ja.wikipedia.org/wiki/KataGo 最も強い囲碁ソフト DeepMindに加え、独自の研究、強化学習の速度を向上(50倍以上)=AI上の工夫は無限 https://arxiv.org/pdf/1902.10565.pdf
//www.nikkei.com/article/DGXZQOUC0346M0T00C22A6000000/ デジタル人材 別枠採用が3割 来春新卒 給与や役職が高くなる企業も日経0628
//dime.jp/genre/1380420/ AIであれば知床 判断を誤ることはなかった DIME0508
//wired.jp/article/to-win-the-next-war-the-pentagon-needs-nerds/ ウクライナで戦争が変わりつつある 米軍での高度IT人材 WIRED0531
//www.nikkei.com/article/DGXZQOGN081QC0Y2A500C2000000/?unlock=1 マスク氏日本はいずれ存在せず出生率低下に警鐘 日経0508
//news.yahoo.co.jp/articles/65960504f6fdfd08295d39726fb177ec02bc129f 東大生に超人気講義AI経営 東洋経済 5/24
//customers.microsoft.com/ja-jp/story/1500156617194279472-persol-career-other-azure-ja-japan 3日間ハッカソンで検索システムAzure0517
//xtech.nikkei.com/atcl/nxt/column/18/00205/070700072/ AIの開発 保守のやり方を変革 あまねキャリア日経0708
//www.smbcnikko.co.jp/products/inv/toshin_lab/column/002.html 投資対象としてのAI 始まったばかり日興
//www.meti.go.jp/press/2022/05/20220509001/20220509001.html 実践的なAI人材育成のためのデータ付き教材 経産省0509
//www.meti.go.jp/policy/it_policy/jinzai/AIutilization.html 中小企業のDXに役立つAI導入ガイドブック経産省0408
//www.jcer.or.jp/economic-forecast/2021127.html DX社会の構築なければマイナス成長 日経済研究センタ
理研/革新的な人工知能基盤技術 Amazon/万能AI開発競争に背実用重視日経0708
( //jdsc.ai/news/ JDSC/この国は変えられる テンバガー AIの活用) 無感情な鬱病患者や知性のないFラン学生と対談させてみれば何か分かるかもしれんなw >>592
後者によるチューリングテストは極めて難易度が高い
一つでも難解な用語を入れるとAI判定される ここでも自分も理解してない難しい言葉で書き込む人いっぱいいるよ? 自然言語は帰納学習だから当たり前だ
用法の論文を書かないと単語を使えないようでは大変だ ■ このスレッドは過去ログ倉庫に格納されています