X



【人工知能】「AI裁判官」は全然公平ではなかった 人種差別やミス連発で人間以下 人工知能裁判のお粗末な実態
■ このスレッドは過去ログ倉庫に格納されています
0001ニライカナイφ ★
垢版 |
2018/01/29(月) 22:11:57.72ID:CAP_USER
◆「AI裁判官」は全然公平ではなかった! 差別やミス連発で人間以下… 人工知能裁判のお粗末な実態

アメリカの一部の州では、裁判でコンピュータアルゴリズムが使われている。
刑務所へ行くか執行猶予がつくか、懲役は何年か、保釈をするかしないか、コンピュータが計算したリスクスコアが使われているのだ。
だが今月17日の「Science News」によると、その判定アルゴリズムが本当に公平なのかどうか、当のアメリカで大きな議論になっているという。

■COMPASとは

有罪の被告を刑務所に入れるか否か、保釈申請を認めるか否かなどを裁判で決めるとき、裁判官や陪審員たちは被告の家族や友人、財産の状況から過去の犯罪歴といった大量の資料に目を通して判決を出すことが求められる。
だが、アメリカのいくつかの州ではこの過程をコンピュータアルゴリズムに任せている。
アルゴリズムは入力された犯罪歴、年齢、人種、雇用状況、教育レベル、薬物使用状況などに加え、家族の犯罪歴などから再犯や犯罪発生のリスクスコアを判定し、保釈・判決・仮釈放などを決定するのだという。

アルゴリズムを開発したのは国家機関ではなく、民間企業だ。
例えばウィスコンシン州で使われる「COMPAS」はNorthpointe社(現在はequivant社)が開発したもので、どのように判定が行われているのかの詳細は不明だ。

このブラックボックスが本当に公平なのかは疑問が多く、白人より黒人のほうがリスクを高く判定されているという指摘もあった。
過去には裁判での使用は不適切であるとの訴訟も起きている。

そこで、米国ダートマス大学のコンピュータサイエンス研究者であるJulia Dressel氏とHany Farid氏は、COMPASと人間の予測のどちらが正しいか検証を行った。
COMPASで評価されたフロリダ州の被告人1000人を無作為に抽出し、年齢や性別、家族構成、逮捕後から2年間の逮捕情報などの情報をデータベース化した。
そして、クラウドソーシングサイトで集めたボランティア400人にそれぞれ被告50人分のデータを渡し、2年後までに再犯するかを予測させた。

■驚きの結果

結果、ボランティアの予測精度はCOMPAS(約65%)とほぼ同じ(63〜67%)であった。
また、人間もCOMPASと同様の人種差別的な誤った推測もしていることが明らかとなった。

予測の誤りを検討したところ、白人の被告では再犯しないと予測されたものの再犯したという間違いが多く、黒人の被告では再犯すると予測されたが実際には再犯していないという間違いが多かったのだ。
また、COMPASに対抗する単純なアルゴリズムを独自に作成し、COMPASと同じ程度の精度で再犯を予測することに成功した。
この結果をまとめた論文は今月17日付で学術誌「Science Advances」に掲載された。

COMPASは人間とほぼ同程度の予測精度を発揮したものの、機械判定に期待される公平さにはいささか欠けている。
判定における透明性にも疑問は多く、一部では基礎的なデータの更新がされていなかったなどの問題も発覚しており、COMPAS利用の難しさが示されている。

リスク判定のアルゴリズムは裁判のみならず、ローンの承認、教師の評価、そして児童虐待発生のリスク判定など幅広く使われつつある。
裁判や人事評価にアルゴリズムを使うことは、評価者の偏見や思い込みを排除して判定を行う大いなる助けになるだろう。

だが、使用しているアルゴリズムが最新のデータに基づくか、適切な判断を下しているかどうかは常に監視していなければならない。
AIを活用する社会はもうすぐ側まで来ているのかもしれないが、それを適切に使っていくにはやはり人間の介入が不可欠ということだろう。

TOCANA 2018/01/29
http://tocana.jp/2018/01/post_15729_entry_2.html
0155名無しのひみつ
垢版 |
2018/02/01(木) 13:12:21.65ID:1E3o5iOp
過去の判例が黒人=犯罪者なデータだから、こういう予測になったんじゃね?
黒人=ゴリラな判定が出たのは骨格的事実か知らないが

偏見で歪んでるのは、差別に人一倍敏感な自称平等主義の人間のほうに見えるがね
AIを作る側のミスというよりは、AIを使う側の忖度で不公平って言ってるみたい
0156名無しのひみつ
垢版 |
2018/02/01(木) 13:21:42.33ID:1E3o5iOp
>>27
>アルゴリズムは入力された犯罪歴、年齢、人種、雇用状況、教育レベル、薬物使用状況などに加え、
>家族の犯罪歴などから再犯や犯罪発生のリスクスコアを判定し、保釈・判決・仮釈放などを決定するのだという。


いややっぱこれ、前提がおかしいわな
AIの判定アルゴリズムに人種が入ってるところが
白人社会の深層心理に根づいてる差別意識ってところか
0157名無しのひみつ
垢版 |
2018/02/01(木) 13:24:31.06ID:+gMImLwX
過去の判例が差別的だったという事実があぶりだされただけだろう
0158名無しのひみつ
垢版 |
2018/02/01(木) 17:49:23.84ID:6VD0rdIk
>結果、ボランティアの予測精度はCOMPAS(約65%)とほぼ同じ(63〜67%)であった。

ならコストが著しく低いAIでおkになるのでは?
0159名無しのひみつ
垢版 |
2018/02/01(木) 21:03:58.15ID:eMZZl1vY
人工知能は人のバカなところも模倣しちゃう。ただの猿真似知能。
0161名無しのひみつ
垢版 |
2018/02/01(木) 22:56:28.09ID:uOi7hHy9
人間と互角なのを、人間以下という表現をする
以下は=も含むと言い訳する
確かに公平ではない
0162名無しのひみつ
垢版 |
2018/02/02(金) 09:18:09.61ID:5Ui8vsp2
アメリカの裁判って野球見るようなノリでやってそうなイメージおる
0163名無しのひみつ
垢版 |
2018/02/02(金) 09:50:17.53ID:zBSTj3bp
コンピュータだと精確だ、中立だと信じられているぶん、互角だと有害なんだよ。
人がやったことならヒューマンエラーがあったと人びとは疑いやすいが、
コンピュータだとみんなが信じやすい。それが落とし穴なんだ。
同じ水準のエラー率ではコンピュータは人間に勝てない。
0164名無しのひみつ
垢版 |
2018/02/02(金) 10:02:57.80ID:Vqu3mVoh
作った奴を問い詰めろ そいつの思想だろ
0165名無しのひみつ
垢版 |
2018/02/02(金) 10:10:00.73ID:zBSTj3bp
ふつう、機械は最初は人件費よりもうんと高価。
使い物にならないからといって解雇できないしね。
だから導入時点がいちばん普及へのハードルが高い。
だから機械の能力は人間を凌駕している必要がある。
同等ではハードルが高い。
0166名無しのひみつ
垢版 |
2018/02/02(金) 12:24:06.52ID:y67oMd9W
差別的なところ最初から排除しとかないのかAIって
そんなもん直ぐ人間の敵になると思うが
0167名無しのひみつ
垢版 |
2018/02/02(金) 13:22:07.73ID:KvLnkNlF
人間以下とは書いてないじゃん
それならとりあえずいいんじゃない
0168名無しのひみつ
垢版 |
2018/02/02(金) 16:45:09.18ID:/nT5a1/P
試作段階、それもまだ始まったばかり
0169名無しのひみつ
垢版 |
2018/02/05(月) 00:23:33.50ID:56ZANKIE?2BP(7000)

AIは過去の出来事を計算するだけ
0170名無しのひみつ
垢版 |
2018/02/05(月) 00:23:43.50ID:56ZANKIE?2BP(7000)

そうだね
0171名無しのひみつ
垢版 |
2018/02/05(月) 00:57:51.30ID:/sNBe69W
ドラクエ4並の知能だな
0172名無しのひみつ
垢版 |
2018/02/05(月) 02:19:28.72ID:rYvZztVp
マザーコンピュータが核戦争すると言ったらそれが正しいのだ
コンピュータは間違え無いのだ
0173名無しのひみつ
垢版 |
2018/02/05(月) 06:59:22.07ID:zcTVyw58
また早過ぎる
0174名無しのひみつ
垢版 |
2018/02/05(月) 11:29:33.03ID:ZnHcGdq8
>>173
AIの技術は山ほど使われている。
要するにコンピュータを擬人化する人が多く、そういう人に
違和感があるだけで、実際のところ、AIってのは手放しで
実用的な動きをするようになっているよ。

いまいま実用的なAIは統計計算。統計といっても、古典の
数学で一発で計算できるような予測じゃない。入力があって
都度にスコア付けを修正し、現実で使える値に修正しながら
使える数字をたたき出すってのが一番よくつかわれてる。

それが実用的だからこそ、検索エンジンは、利用者に便利で、
かつCMスポンサーにも都合のいい検索結果を返してくれる。
音声認識や音声合成は、数兆回の答え合わせを経ていまの
レベルになってある程度の実用化がされている。

ドローンが空飛べて、メーカーが提示する条件を守っていれば
墜落することがないのもデータの積み重ねをAIが処理して、
よりよい動きを考えてきた結果だし。
0175名無しのひみつ
垢版 |
2018/02/05(月) 14:26:36.94ID:IlV5mcSY
AIが経営最高責任者を務めたとしても社員の依怙贔屓で大変なことになりそう。
0176名無しのひみつ
垢版 |
2018/02/05(月) 14:59:29.76ID:vWQiaga2
>>150
半径160kmって言ったのは規制委員会な
0178名無しのひみつ
垢版 |
2018/02/16(金) 10:15:56.31ID:CQ7GiXOS
>>177
エンジンといってもいいしライブラリといってもいいしサービスと言ってもいい。
統計をもとにした傾向推定はAIの一部ではあるけど、AIイコール傾向推定だけじゃない。
0180名無しのひみつ
垢版 |
2018/02/16(金) 10:26:23.23ID:AbqRX2iT
亀の甲羅を焼くと同じこと 人間って変わらないね
 AIはもっと駄目だが
0181名無しのひみつ
垢版 |
2018/02/16(金) 10:29:24.06ID:eOVCfEGw
AIに判定させたら人間なら忖度するようなタブーをじゃんじゃん指摘してくるんじゃね
0182名無しのひみつ
垢版 |
2018/02/16(金) 10:57:43.39ID:CBex8XT1
これはAIではない、なんら自己学習してるわけじゃないだろ
0183名無しのひみつ
垢版 |
2018/02/16(金) 11:11:00.51ID:RBwLvqlC
人間とほぼ同じ判断をしているのに、最後で「人間の介入が不可欠」????
0184名無しのひみつ
垢版 |
2018/02/16(金) 12:04:17.41ID:2ZTlJw2s
人工的に嫌な奴増やしてどうするって感じだな
0185名無しのひみつ
垢版 |
2018/02/22(木) 01:22:18.46ID:Ni/smrGo
元のデータが中央から分散し過ぎてやべえんだな
こりゃ一からプログラムし直した方が早いかと
0186名無しのひみつ
垢版 |
2018/02/22(木) 12:48:03.01ID:22wwcwJg
ビッグブラザーは数学的に設計された完璧な人格だと主張する主流派。
それを批判する異端派。
0187名無しのひみつ
垢版 |
2018/02/22(木) 13:10:40.04ID:Q9PcK+Eb
AIは 人間の知識が生み出した物でしかない。
生物に対する尊敬を持たないAIには、人間社会生活は馴染めない。
本質は未知への畏れだから。未知への畏れと興味を持つ迄、AIに心は無い。
0188名無しのひみつ
垢版 |
2018/03/05(月) 10:26:36.66ID:qX6J4GAP
欧米人の思想がしっかり入ってる人間臭いAIでいいじゃん
0189名無しのひみつ
垢版 |
2018/03/14(水) 06:44:10.96ID:GcO47ZO1
 


>どのように判定が行われているのかの詳細は不明だ。

こんなもんよく許しとくなw


 
0190名無しのひみつ
垢版 |
2018/03/15(木) 01:27:44.33ID:nUT4w87H
>>5
それだ
0191名無しのひみつ
垢版 |
2018/03/15(木) 01:48:38.35ID:mCEJqHpA
基準となる数値を人種ごとに分けてるなら結果は当然人種ごとに違うけど、それはAIの差別というより
アルゴリズムの正当性を疑う話だよ
0192名無しのひみつ
垢版 |
2018/03/15(木) 02:09:27.18ID:G53rw2p2
AIなら大丈夫って盲目的に考えるのはもう止めよう。
プログラムや学習の問題と言ってる奴は、すでに知識が古い。
今のAIは出した答えが理論的に説明できない。正しいか間違っているかを判断する根拠が無い。人間が勝手に外から独断で判断してるだけ、笑えるだろ。
ビックデータを使ったAIだろうが、デープラーニングだろうが同じ。
0193名無しのひみつ
垢版 |
2018/03/15(木) 02:14:18.00ID:Q/YAscbq
本当はAIのほうが正しいんじゃないのか?
0194名無しのひみつ
垢版 |
2018/03/15(木) 02:21:09.19ID:G53rw2p2
如何にもそれっぽい答えが出てるだけ。
そんな曖昧な答えでも使える場所はある。その理解が必要。
もう後2、3段階進むと、意識が有るか無いかも分からないので。
無自覚に人に害を与えても、それを理解できない世界が見える。
0195名無しのひみつ
垢版 |
2018/03/15(木) 02:22:37.34ID:G53rw2p2
>193
そこに?がある時点で終わっとる。
0196名無しのひみつ
垢版 |
2018/03/15(木) 02:25:00.09ID:G53rw2p2
再度言おう、分からないのが最大の問題。
0197名無しのひみつ
垢版 |
2018/03/15(木) 02:41:25.41ID:NLIe+7pM
AIが間違ってるんじゃなくて学習元の人間がみんな駄目だからそういうAIに育っただけ。
0198名無しのひみつ
垢版 |
2018/03/15(木) 07:27:44.48ID:zQiT3nJW
人間の裁判の仕方を完璧に学習した結果だろ
0199名無しのひみつ
垢版 |
2018/03/15(木) 18:46:10.12ID:NXV5h0ve
AIに人間の社会、感覚、体の構造、家族などのシュミレータを追加しないと
人間の判断とずれる、数学のような分野なら別だが

たくさんのAIを集めて集合知で結論を出す方法も要検討
ナヴァヤス(アルゼンチン)の方法
0200名無しのひみつ
垢版 |
2018/03/16(金) 00:24:18.53ID:mnzz+fJ2
>197>198
少し前の延長でしか今を見ていない。
0202名無しのひみつ
垢版 |
2018/03/19(月) 19:27:56.42ID:iqP5AgEn
【誤判】命や金を奪う裁判官の制裁方法【冤罪】

裁判官は不正裁判をしても罰せられたり償わされないため権力犯罪だらけです。
裁判所は出世のために不正裁判をする裁判官で成り立っているという説もあります。

殺人や強盗や知財のような難易度の高い事件ほど能力不足の裁判官が事実に反する不正な誤判や冤罪などを発生させています。
特に最高裁や高裁は思考回路の劣化した反科学的で無責任な退官予定の老害裁判官ばかりです。

犯罪裁判官は職権を濫用して不正に命や金を奪い放題ですから国民が厳重に監督しなければなりません。
国民は出世のために不正や犯罪をして悪儲けする裁判官に知恵で対抗しなければなりません。

不正裁判で失った命や金を賠償請求する方法はありません。
裁判官に命や金を奪われる犠牲をなくすために不正裁判を行う裁判官に制裁を与える方法を考えましょう。
せめて裁判官を提訴する事と人事評価や罷免制度の活用だけでもしなくてはなりません。

不正裁判被害者の会
事務局
wrong_judge@outlook.jp
0203名無しのひみつ
垢版 |
2018/03/22(木) 22:24:22.51ID:1C29LByU
公平かどうかの議論になるレベルじゃないような気も。公平ってなんだっ気はする。
そもそもAIのアルゴリズム上で裁判の目的はなんだろうな。

アルゴリズムがおかしいか、凡例データを集積したら人間がそういう判断をしてたか。もしくはその判断は実は合理的なものなのか。
興味はつきないな。
0204ニュースソース検討中@自治議論スレ
垢版 |
2018/04/03(火) 02:42:06.36ID:IFhYgbQT
結局のところね、人種には明らかに差があるんだよ
現状のAIは空気読めないから本当の事を言ってしまうだけなんだな
0205ニュースソース検討中@自治議論スレ
垢版 |
2018/04/18(水) 00:44:13.57ID:O5PKXZI+
>「AI裁判官」は全然公平ではなかった! 差別やミス連発で人間以下… 人工知能裁判のお粗末な実態

調査した現在のアメリカの話

裁判は公平ではない
自分が出世する為には公平、正義よりも早く裁判を終結させることを考える
裁判官を公平な人間、聖人君子のように思っている人が多いのは主にドラマの悪影響
元裁判官等による実態を指摘した本などもあるが、裁判の公平化が進むのは当分先
になりそう
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況