【AI】「感情認識AI」の危険性を専門家が警告、一体何が問題なのか? [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
「感情認識AI」の危険性を専門家が警告、一体何が問題なのか?
リモートワークやリモート授業が浸透するにつれ、労働者や生徒をデバイス越しに監視するソフトウェアの需要が増加しています。
中にはリモートで通信する相手の表情から感情を読み取る「AIを使ったソフトウェア・サービス」も存在しますが、これらの技術は科学的な実証がされておらず、誤用が懸念されると、人工知能(AI)の社会的影響を研究するケイト・クロフォード氏が論じています。
Time to regulate AI that interprets human emotions
https://www.nature.com/articles/d41586-021-00868-5
新型コロナウイルス感染症(COVID-19)の影響で都市封鎖が行われ、リモート勤務やリモート学習が推奨されるようになりました。
クロフォード氏によると、「これまで対面で行われていたコミュニケーションが遠隔で行われることで、感情が伝わりづらくなった」という問題を解決するため、多くの企業や組織が「画面の向こう側にいる相手の感情を読み取るAI」の導入を行っているとのこと。
(以下略、続きはソースでご確認下さい)
Gigazine 2021年04月09日 09時00分
https://gigazine.net/news/20210409-time-to-regulate-ai/ >>3
またエロいこと考えてるとか見抜かれたらイヤだな NPCが顔色をうかがうようにできたり、このAIに表情をつくるAIを教育させて感情豊かなNPCわを作ったりとか出きるようになるんかな 「義務教育で教えて!」「いや教えとるわ」社会保障に関するセルフコラ漫画が話題に「確かに公民でやる」
http://nure.safora.ru/kBY/650198721.html テレワークでは、AIがオンライン勤務する社員の感情認識を行い、肯定的な感情をもって労働しているかどうか、ポジティブかどうかで、査定をするのだろうな。
労働の成果物への評価をできる上司が日本にはいないのだから、どうしてもそうなる。 AWSでもAzureでも顔認識APIで感情取得出来るけど、
「見た目と感情が一致しないことがあります」と注意書きがあるな
笑っているように見えても心では泣いているかもしれない 人間同士でも顔色偽装や読み間違いあるんだし難しいだろ 笑いながら怒る人の芸を見せたら
どう判定するのかな? >>11
正確さを保証しないサービスだから成り立ってる
パーティグッズレベルのもの 白人「AI怖い!中国怖い!移民怖い!アジア人怖い!イスラム教徒怖い!黒人怖い!」
なんやアイツらビビりすぎやろ草生えるわ しかもマイクソソフトのリサーチャーで草
AIよりオマエんとこのクソOSなんとかしろや >>3
「眼つきがセクハラ」と社の男女共同参画室に密告されたことがある。
聴取のときに顔面差別だーと開き直ったら,厳重注意処分喰らった。 生活のために働いてるだけなんだが、精神的な媚び・売春までも求める勘違いは何なんだろうな。マジ気色悪いわ。 >>1
この世にはIQの高い馬鹿が本当に多い。
表現の本質が全く理解できていないから、
こんな原理に不可能なことを
稚拙な方法で何とかしようとする。
そもそも感情は表情に現れているのではない。
人は表情で感情を推測しているのではない。
本当に馬鹿は救いがない。 歌舞伎の隈取りのような化粧をしたら、どういう判定になるかな?
狸の顔のようなメークとか >>16
ネタかも知らんけど、でも今どきこういうの本当にあるからね。
アホがのさばる社会ってろくなもんじゃないよね・・・ >>1
>IBMは「テクノロジーが差別と不平等を助長する」
行き過ぎた人権、ジェンダーフリー、ポリティカルコレクトネス、自由、平等、博愛、民主主義重視で欧米の研究は衰退しそうだ
Googleは人種問題でゴタついてるしね
日本、韓国、台湾、中国、シンガポール、チャンスだぞ
てかアメリカ人はAIの暴走よりお前らのとこの差別主義者の暴走について考えようか
日本人を殴ったり、日本の寺を燃やしやがって
だからお前らは偽善者なんだよ 人間判定に使うんだな
表善人の裏悪人とかを見抜いてしまう Lie to meってドラマのモデルになったポール・エクマンの研究内容だって
時系列が進むに連れ齟齬や例外が増えたからなぁ ■ このスレッドは過去ログ倉庫に格納されています