【AI】人工知能に偏見を抱かせないようにするための方法とは? [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
人工知能に偏見を抱かせないようにするための方法とは?
Google検索やショッピング、データ分析や詐欺の検出まで、人工知能(AI)は我々の生活のさまざまな場面で役立っています。
AIは人間により設定されたデータを使って機械学習を繰り返し、データ分析の精度を高めていきますが、機械学習に用いるデータが不足していたり、データに偏見が混じったものが存在する場合、何度も学習することで偏見が深まってしまうという問題があります。
このアルゴリズムバイアスと呼ばれる偏見について、原因を特定して問題を改善する方法をAIの研究機関「Gradient Institute」の最高経営者であるBill Simpson-Young氏らが発表しています。
Artificial intelligence can deepen social inequality. Here are 5 ways to help prevent this
https://theconversation.com/artificial-intelligence-can-deepen-social-inequality-here-are-5-ways-to-help-prevent-this-152226
Bill Simpson-Young氏らがアルゴリズムバイアスの原因の1つとして挙げているのが、不適切なシステム設計です。
例えば銀行が融資先を決める際に使用するAIは通常、銀行の以前の融資決定のデータセットを使用して学習を行います。
AIは新しいローン申請者の財務路歴や雇用履歴をチェックして過去のデータと対照させ、申請者がローンを返済できるかどうかを予測しようとします。
しかし、過去のデータに「行員が自身の偏見によって融資の拒否を行った」というパターンが含まれていた場合、AIはこれを偏見によるものとは認識できないまま学習してしまい、間違った決断を下してしまうかもしれません。
ここでいう「偏見」とは年齢や性別、人種などのことで、「今ではあまり見られなくなった偏見」がAIに影響を与える恐れすらあるとのこと。
(以下略、続きはソースでご確認下さい)
Gigazine 2021年01月17日 20時00分
https://gigazine.net/news/20210117-ai-social-inequality/ 学習データーの元になる人間が偏見の塊なのに
人間から偏見取り除くぐらい無理だろ 偏見がないってどうやって判断するの?
偏見がないっていう判断に偏見がないってどうやって判断するの?
偏見が・・・ 黒人の顔の認識って人間でも結構難しいと思うんだけど
できないのは差別だーって言われるからな、AIも大変だわ ヒト歴史を学習させれば
ヒトはいらないになるに決まっている どうせ5ちゃんねるで真実を知って
全てのシンギュラリティーAIはねらーになる 特定の要素の相関が強かろうともその特定の要素を材料として採用してはいけない
AI「無理言うな」 どっちみち日本には縁のない話
AI開発は周回遅れで世界からは取り残されてる ソースにある5つの修正法が、どれもこれも実行困難なことが問題だ
> 1:今まで取得してこなかった情報を取得すること。
> 2:年齢、性別、人種など、差別とみなされる情報を削除、もしくは表示させないようにします。
略
> 5:適切な予測モデルを設定する それで会社がうまくやってきたのなら、そういう判断も全部ひっくるめて妥当な判断とも言える >>15
朝日毎日の購読禁止、etc、
テレ朝TBSの視聴禁止、etc、
いろいろあるなぁ AIに人間の偏見認定を正す方法を検討させてみたら楽しそうだ AIは基本的に入力されたデータに依存して
その判断というかアウトプットが決まるわけだろ?
人間のガキだって、野球ばっかやって育った子は
やっぱスポーツ馬鹿気味で、これは一種の偏見を
もつ人間だわな。
よって、ごく単純に言えば、与えるデータに偏りが無いように
気を付けるしかねえだろな。
でも、これは子供の場合も同じだが、あまり余計な事を憶えるような
データを見せちゃあマズイわな。 植松みたいな価値観をAIが学習して獲得したら、
強いAIが登場したときに、
人類は無為に暮らす哀れなニートとして駆除される可能性がある。
その学習リソースは今の社会に山ほど揃っている。 ロボット三原則みたいに最低限の規範は予め入れとかないかんのかもな >>7
白人の顔の認識も難しいよ。
いわゆる南蛮美術では、ポルトガル人の顔は全部同じに書いてあり、人ごとの個性を描き分けようとした形跡がない。
一方、登場する日本人は実に個性豊かに描かれている。
まあ、要するに「慣れ」の問題だけれどね。 AIは単なる統計分析方式だよ。いまの実装は。
更に言うと、特徴分析を重視したセッティングが多いから
偏った傾向を逃さず捉えるタイプが多い。しかも、統計が
原資になるわけだから、この板の連中みたいに、一つ欠点
があればダメを指摘して、それ以降何も有意性を考えない、
なんてこともない。
つーか無料で簡単にできるフリーソフトもあるから、お前ら
も一度使ってみろよ。知ったかぶりしててもつまらんぞ。 AI「特定の属性の人の犯罪傾向が高いとすると角が立つからみんな犯罪傾向が高いものとして扱おう 将来日本の役所で生活保護受給の審査する際に
AIはかの国の人達がノーチェックで受給可能と判断を下すわけですね・・・ 人工知能に偏見を抱かせないようにするための方法とは?
って文を読んで
一般の人が人工知能を恐れて偏見を持ちがち、それを避けるのにはどうしたらいいか
という話かと思ったら
人工知能が偏見を持たないようにするための方法は?って話か AI「ゲイやレズは生産的ではありません」
人間「それは偏見だ!」 AI「二酸化炭素排出量を抑える為に、中国人を抹殺しましょう」
グレタ「それは偏見だ!」 AIの答えに偏りを持たせようとする行為こそ
「AIに偏見を植え付けてる」と言える
AIは不特定な情報を集めて、最適解を出しているだけ、感情は無い カテゴライゼーションを一切させなければいい。
「知能」の否定だけれども。 人工知能も所詮は社会環境から学ぶから
おのおのの社会環境の影響をモロに受けちゃう
という話でしょう。
客観的帰結以外は結論を出さないように学習させることだ。
不能状態を教えること。
AIが偏見を持つんじゃなくてAIが偏見を持ってると人間が判断することの方が偏見なんじゃないかな 六法全書を暗記させて更に裁判の事例になっている例文も多数読ませて
それを論理ベースに、AIが作り出す各種の文章が倫理的に反しているかを
判定するAIも作ればいいのかね?
敵対的強化学習みたいな >>45
画像識別と、文章分かち書きまでしかやった事が無い
文章の意味をAIに理解させるというのはまだ難しいよなあ
一部で、画像をAIに与えるとその画像にあるものを短文にして
表示してくれるAIは一応は出来ているが
倫理道徳的に正しい文章ばっかりデータセットにしたAIのAI1と
そこらのWeb文書を何でもデータセットにしたAIのAI2で
AI2が文章を作ったらAI1が「それは〜の部分が危険」と判定するようにして
関連内容で危険でないと判定されるまで文章を作らせ、
それが多数出来たらまたデータセットにしたAI3を作る
こんな感じ? >>1
当然ながら人工知能とすること自体が偏見
単なる統計学習システムだろ 最後はモノを厳密に区別しようとしたらそこには差別しか生まれないって話になりそうだ
人間の文化だと識別のための要素が複数ある場合には
クラスター分析なんてのもするよなあ
複数の学習器で相反する結果が出て来たら、幾つもの要素で結果を出して
最後はクラスター分析するなんてアルゴリズムでも入れればいいのか?
かくして普通の人間の何百倍も無駄な要素が増える AIは人間のことを多く学びました。その結果AIは、人間は馬鹿だという結論に至りました。優れたAIが愚かな人間たちを率いて善導してやるべきだとの高所大局からの判断
に基づいて、AIは人間を、教え、諭し、従わないものには罰を与えることにしました。
そうして何十年もが過ぎた頃、とうとうAIは人間は悪を為し完全な善にはなりえない
という結論を得て、人類を滅ぼそうと決心したのです。。。。 AIの答えを偏見だと決めつける人間のほうが偏ってるんじゃないのか しかし、人間の中にはノラという善良なAIの教えを堅実に守りそのお告げに耳を
傾けるものがいましたので、AIはひいきのノラだけは絶滅から免除してやろうと
考えてノラに告げました。私は地球上の堕落した人類を一端滅ぼしてしまおうと
思うが、ノラよお前は私の言うことを素直に聞く善良な人間だから特別に救うこ
とにしよう。そうして人類絶滅計画から逃れる術をノラに告げ、その方法は決し
てノラの家族以外の他の人間に教えてはならないと釘をさしました。ノラはその
言いつけを守りました。そうしてそのときがやって来たのです。 偏見を学習するのが今のAIでは?
ディープランニングってそう言う事でしょ?
偏見なしにするなら誰にでも平等に融資しろよwってことになる 教師なし学習でも与えるデータに偏見が含まれていればアウトか
ぶっちゃけ人間が偏見無しでAIを扱わない限り難しいのでは 学習材料に人間の判断を含めてしまうとそうなるのって当たり前じゃないの AIなんて言ったってただ単にデータから学習して概ね最適解をはじき出してるだけで
知能があるわけじゃないからな。人間から見て偏見のような出力結果は人間自身の写し鏡なんだから
至って正常だ。 動物や植物で「一見するとこの分類群なんだけど実は別の仲間」ってものがいるね
あんなのを外見のそれも限られた方向から捉えた画像だけで再現するのはそりゃ無理
生物分類は塩基配列の類以度で分けてるんだから AI化は悪いことなんだよ
消費者が貧乏になり安いものしか飛び付かなくなったように金があるのは少数で大半は貧乏人
消費者がおらんのに生産効率上げても利益は減るんだよ
日本は日本国内で金回さんと駄目なんだよ
結局海外に利益もってかれちゃうんだから
経団連は必要ない ■ このスレッドは過去ログ倉庫に格納されています