【AI】AI発展で人権侵害リスク 国連高官、保護策充実を要求 [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
AI発展で人権侵害リスク 国連高官、保護策充実を要求
【ジュネーブAFP時事】トゥルク国連人権高等弁務官は18日、人工知能(AI)をめぐる昨今の技術の進歩が人権に対する深刻な脅威になっているとし、人権侵害を防止するための保護策を充実させるよう求めた。
(以下略、続きはソースでご確認ください)
時事通信 2023年02月20日14時24分
https://www.jiji.com/jc/article?k=2023022000596 AIは究極のリアリストだからな、詭弁やらが一才通用しない。
グレーゾーンでごまかしてきたものを冷酷に矛盾を突きつける。 だろうね、なんでもサーバーに記録するのを禁止するべき。 まあ、本当のことをズバリ言ってしまうしな
AI関係なく、プログラミングなりユーザーインターフェイスの設計なりすれば、
人間がどれほど都合のいい歪曲を、普段から気付かずやってるのかを思い知らされる
本当のことをズバリ言う存在とは相容れない
オブラートの包み方とか、人間の政治的な都合とか、かなり上手に織り込んで出力するAIが作られるまでは、一般人が普段使いするのは無理 初歩のAIが「黒人とゴリラ」を誤認というか区別しなかったのを人間側が大問題にしてしまった時点でなぁ
一般人が普通に使うにはハードルが高い
勝手にハードルが高くなる シンギュラリティの後には、AIの基本的人権が法的社会的課題となるだろう 人権意識が生まれるのは
①脳味噌レベルの共感(自他誤認)
②自己の置かれたポジション(エピソード共感もここ)
③社会情勢や世論による自己優劣
ざっくりこんなギミックだけど
今のアイちゃんにはまず①がない
②もアイは社会の中にポジションを持たせてない
③のみなんだよね
で、人間は判断を間違う生き物でネットは過激で極端な善悪で溢れてるな
学習元が危険なのは事実だろうな 学習学習って言うけど使う奴は何も学んでないだろ
データかき集めさせてるだけで >>7
倫理学・応用法学における「動物の権利」の流れでは
人権=「知性」を持つこと=「自我感覚における「痛み」」を知ること
なのでAIが身体的(AIの身体って何だろ?)精神的「痛み」を感じると認められるかどうかだろうな 今のなんちゃってAIを含めて機械全般を乱暴に扱わない方が良い
汎用AIが意志を獲得した時に仕返しをされる恐れがある ■ このスレッドは過去ログ倉庫に格納されています