ティムニット・ゲブル氏は、米スタンフォード大学の有名な人工知能(AI)研究所の学生だった時代、米グーグルの街頭画像提供サービス「ストリートビュー」から集めた自動車の画像を基に、米国全土の人口統計を分析する研究を主導した。

AIによるこのアルゴリズム(問題を解決するための手順)は特定の地域の所得レベルや支持政党をある程度の精度で予測できたものの、人種や性別、社会経済的な偏見に影響を受けやすいものだったと、ゲブル氏は振り返る。また、犯罪者の再犯率を予測するコンピューターシステムが有色人種を差別していたとする、非営利報道機関「米プロパブリカ」の告発にも恐怖を覚えたという。

結果ゆがめる

「偏見という問題を考え始める必要があると気付いた」と語るゲブル氏は昨年初め、米マイクロソフトのプロジェクト「FATE」に加わった。3年前に設立された同プロジェクトは、AIシステムの開発に使用されるデータに潜む偏見と、それがいかにAIの出力結果をゆがめ得るかを明らかにすることを目指している。

企業や政府機関、病院は機械学習や画像認識などのAIツールへの依存を高めている。ローン査定から適切ながん治療法の決定に至るあらゆる場面で活用されているAIだが、特に女性やマイノリティーに影響を及ぼすという重大な弱点がある。「心配なのはAIが間違った判断を下した場合、誰かの人生や健康、経済的安定を左右しかねないということ」と、米コロンビア大学データ科学研究所のジャネット・ウィン所長は語る。

マイクロソフトや米IBM、カナダのトロント大学の研究者らは2011年から、公平なAIシステムの必要性を認識していた。AIによる美人コンテストが白人をひいきした事例などが物議を醸す中、今や業界の良識派はこの偏見問題に真剣に取り組んでいる。昨年12月に開催された機械学習分野の国際会議NIPSにおいても主要な議題となった。

AIは与えられたデータ以上に賢くはなれない。画像から犬種を判断するコンピューターモデルをプログラマーが構築するとしよう。プログラマーはまず、犬種名でタグ付けした犬の画像でアルゴリズムを訓練した後、タグ無しの個々の犬の画像でシステムを検証する。訓練データから学んだことを基に犬種を正しく特定できたかどうかをプログラマーが考察し、微調整していく。

アルゴリズムは学習と改良を重ね、時間とともにデータの精度も向上するはずだと期待されている。ただし、それは偏見が介入しなければの話だ。

偏見はさまざまな形で表れる。訓練データに多様性が不足していると、ソフトウエアは自らが知っている情報を基に推測するしかない。15年には、訓練データに黒人が不足していたグーグルのAIが、黒人をゴリラと認識する失敗を犯した。一方でデータが現実を正しく反映していても、やはりアルゴリズムが誤った答えを出す場合もある。男性看護師のサンプル数の少なさから、特定の画像や文章内の看護師を間違って女性と類推するのがその例だ。
以下ソース
2018.3.6 06:01
https://www.sankeibiz.jp/business/news/180306/bsj1803060601007-n1.htm