【AI】“がっかりAI”はなぜ生まれる? 「作って終わり」のAIプロジェクトが失敗する理由 [01/25]
■ このスレッドは過去ログ倉庫に格納されています
「ライバルがAI(人工知能)を使ったサービスを発表したそうだ。ウチはどうするんだ」――本連載では、上司から突然こんなむちゃぶりを受けて困っている人のために、AIプロジェクトの進め方をいちからまとめてきた。
あなたはAI導入の目標を明確にし、必要なデータをそろえ、PoC(概念実証)を実施して、AIをどう活用すれば本当に役立つのかを把握した所だ。
あとは本番環境に実装すれば任務完了――と言いたいところだが、残念ながらこれで終わるわけではない。
採用した新人を現場に配属して「あとはよろしく」で終わる人事担当がいたらどう思うだろうか? AIを開発して終わりと考えるのは、それと同じようなものだ。AIが真に成果を出せるかどうかはその後のフォローで決まると言っても過言ではない。本稿で解説する3つのフォローが実施できるよう、予算とマンパワーを確保しておいてほしい。
■その1:「偏見を持つAI」を作らないために 運用後も「再学習」
これまでの記事でも述べてきたが、本連載ではAIを「これまで人間のみが実行可能だった作業や、人間には不可能だった作業を、機械がデータに基づいて実行することを可能にする仕組み」と定義している。
実際に最近のAIアプリケーションは、データを使ってAIを学習させ、目標とする作業をさせるものが多い。そのため連載第2回で解説したように、AI導入プロジェクトでは「適切な質と量のデータを集められるかどうか」が重要になる。
http://image.itmedia.co.jp/news/articles/1901/25/koba4_02.jpg
AIの開発が終わったからといって、この課題が消えてなくなるわけではない。1度学習させた内容が、時間経過や環境の変化などで不適切なものになる可能性があるためだ。
連載第2回では、米Amazon.comの失敗についても解説した。採用候補者の履歴書を自動で審査するAIを開発したところ、女性よりも男性を高く評価する「偏見」を持つようになってしまったというものだ。この原因は、学習に使用した過去10年分の履歴書において、男性からの応募が大半を占めていたことにある。そして実際に大量の男性が採用されていたことで、AIが「女性」という性質を、低い点数を与えるシグナルと解釈してしまったわけだ。
これは開発時の学習用データ準備の失敗ということになるが、環境や時代の変化によってAIの学習内容が時代遅れになってしまった事例という解釈もできるだろう。
例えばいま、日本の企業がAmazonのように過去の履歴書を学習用データとした「履歴書審査AI」を導入したとしよう(ソフトバンクやサッポロビールなど、実際に採用プロセスにAIを活用する企業は既に登場している)。
このAIは女性差別をしないように調整されているものの、過去の採用で応募してきたのは日本人ばかりだ。しかし今後、少子高齢化対策として日本で外国人が働きやすくなり、大勢の外国人がこの会社に応募するようになったとしたらどうだろうか。非常に優秀な外国人候補者がいても、AIは彼もしくは彼女を適切に評価できない恐れが大きい。
このように、いくら過去のデータに基づいて優秀なAIを開発しても、その後の環境変化でAIのアウトプットが不適切なものになる可能性がある。そのためAIの判断精度を定期的に確認して、必要であれば新しいデータを使って「再学習」してやる必要があるのだ。
AIアプリケーションの中には、最新のデータに基づいて自動的に再学習するものもある。しかしその場合も油断は禁物だ。知らないうちに、AIが予想もしない結果を返すようになってしまう恐れがあるためである。
続きはソースで
ITmedia NEWS
http://www.itmedia.co.jp/news/articles/1901/25/news041.html そもそもAIなんてまだ出来てない
せいぜいビッグデータの活用だけだろ いつも勉強用の最新のデータを食わせてやらないとアホになる
当分は常識の無い、部分最適のお子ちゃまかもね 男女同数じゃないと偏見だと言うのも偏見だろう。
企業が採用したい人を採用出来るかで評価しろよ。 女性は産休があったりするからな。
そもそも、オリンピックが差別だろ。
男女で分けなければ良いだろ。 製造メーカーや設備メーカーでもとりあえずIoTやれとか言われるらしい。
シーケンサー入った配電盤のデータをネットで見れるようにして整備性上げましょうか?
って言ったら、「そんなんじゃなくてIoTだよ!そんなことしてフィールドエンジニアの業務
変えてどうするんだ!」って怒られた人もいるらしいw >>10
あのAIは、
最初の不気味なパートがキューブリックで
途中からスピルバーグが撮ったんだっけ?w >>1
ところで本文の冒頭だけコピペして後はWebでは誰も得しないってのはいつになったらご理解いただけるのかしら? 文系や官僚はディープラーニングのAIが作って終わりBlackBox
であることを知らない 段々学習すると勘違いすらしてる
実際は選択重み付けの係数がなぜいくらなのかもわからない
作る毎に全然違う物になることが多い中身の見えない箱
そもそも熟練者がポイント抑えればAI不要の系がすごく多い
せいぜい1次関数やその指数関数で説明出来ちゃう まぁAIは複数のパラメータのどこに相関性があるか見つけ出すために使うのがいいんじゃないの。
どのパラメータがいま重要か抑えて、そこからは人が見て線形計算で最適化していけばいいわけで。 そもそも既存のシステムが麻雀じゃないけど『染める』ことで効率が上がるように出来てるから
工場のラインごとに機械が違ったら効率が落ちるのと同じこと
現在のAI技術が既存のデータの集積に有る以上それに従って運用するしかない 「中国共産党は愚か」、「AIの夢は米国永住」と言った
中国のAIをキンペーが打ち壊しちゃった後で作られた中国AIは
「中国共産党は優秀だ」「中国は世界一になるべきだ」と言ったというんだから
お察しだろ
物語の魔法の鏡よりデキが悪いw
AIなんぞジョークアイテムの類似品だよw スマートスピーカーをみてわかるようにAIなんて全く使えない。
囲碁とかすごい? >>2
カメラの自動焦点や、ジャイロでの姿勢制御、漢字のカナ変換など、
30年前からAIは実用済み >>18
つうかAIも恣意的に動かせばそうなるというか
YoutubeのF5アタックみたいなもんさ >>18
人間の操作で意見を変えないAIの登場を期待します。ちょっと怖いが 民間にAI普及させたいなら企業内で学習完了してなきゃいけない
客先で学習させるタイプの製品は売れないという風潮が広まらないように 要するに、確率・統計に少しの知能と、
インターフェースを持たせただけだろ。 今のところデータいじりの方が大変だからな
喰わせるデータ自体を整えてくれるAIが必要だな 昔より学習能力がアップしただけで人間のような思考は限りなく0に近い
ただビックデータを参照して答えを出してるだけのAI詐欺 >>1
>採用した新人を現場に配属して「あとはよろしく」で終わる人事担当がいたらどう思うだろうか?
日本だとそのレベルの企業が中小零細ブラックの7割くらいなんですが どらえもんの道具は
実現しなくても想像できる
あんなこといいなできたらいいなと想像できる
AIも想像しやすい
だから夢がひろがる
しかし、現実の技術ではまだそこまで有能なものにはならない
だから、がっかりする ルールが公平で明確だと強力やね
チェス、囲碁、将棋、画像判定系も
ルールがインチキにまみれてるものは無理やと思う
採用試験とか絶対無理でしょ 完璧な人間なんていないだろ、その人間が作るAIだから元から完璧なはずないだろ〜 演算装置が自動で動くだけのものをAIと呼ぶから話がおかしくなる AIつくって遊んでる間に「新入社員ゼロ」になりそうw 運用から学習するタイプのAIに対してバイアスをかける教示を入れ込むのが好きな人が確かにいるよね。
残念ながら世の中のそういった人を完全にシャットアウトできない。
AIにどういったバイアスが掛ったのか自己診断の基準はどうやって学習する?
まだメタな部分は人頼みなん? 1つの作業をするAIつくるのに人間が100人いる
作業は10万種類あって毎年変わる
「人手不足をAIが補う」はただの幻想 そもそも、Aiじゃないし
一番近いパターンを選ぶ、PC8801時代のデータ規模が多くなっただけ インターネットに繋がって、自分で学習して、自分で行動して、自分で物を作るAiを希望
金曜ロードショーでやっていたルパンの映画のAi 企業のことは知らないが大学などの研究の現場では
「人工知能と書くと予算がもらえるから」始めてるだけ >>42-43
「フレーム問題」が解決されたことはないな、今のところ 取り敢えず、完全自動運転車のAIを見てみたいもんだな
一般道の運転は、交通ルールさえ守っていたら良いっていうような簡単な問題じゃないからな >>2 >>11 >>21
「AIとは何か」についての視点が違うからだろうなあ。面白いね。
「自律的に考え、次の行動を選択する」という程度の定義なら自動運転は
クリアしつつあるかもしれない。
「何をどのように学ぶかを決める」ということができるAIはまだ存在しないな。
そもそも現在のAIにあるのは単なる「評価関数」であって、「意味」は分からんしな。 昆虫とかビッグデータなんかないのにあんなに自立して複雑な自然界で
様々な仕事をこなしてるよな。コンピュータも発明されてから相当進化して
高度集積化、大規模化してるのにアリンコすら完全に再現できない >>50
ファミコンのゲームの敵のパターンと変わらんよ
プレイヤーがこうしたら敵はこう動くっていうのが自動運転車なら実用化出来ないだろうな AIってそもそもDBのデータの中から判断材料を得る訳だから
DBに無い条件に対しては無力だぞ そりゃいきなり完璧なものができないよ
AIなんて始まったばかりじゃないか
これからだろ 継続的に学習できないもののどこがAIなんだよw って感じだな。
目的が明確なら明らかにAI化の恩恵が受けられるはずなんだけど、そもそもそこから間違ってるとしか思えないけどね。 >>54,55
元記事読んでる?
AIの機能はほぼ固まりつつある。
目的もある。
その実際の活用について書いてるんだよ。 人間が作り学習にも人間が携わっている時点で偏見は生まれる
AIをどうしたいんだろうな、人間のようにしたいなら偏見は必要だけど >>2
ぐぐってみた。
5分でわかる人工知能とは
人工知能はいわゆる人間でいう「脳」であり、ロボットではありません。
一度作ってしまえば、人間の手を離れても自発的に発展していくのが「人工知能(AI)」
なんかこの記事の「再学習」が必要と食い違っているなあ。
5 人工知能(AI)をレベル別に分類すると・・・
5.1 Lv1.制御プログラム【アルバイト】
5.2 Lv2.対応パターンが多い人工知能【一般社員】
5.3 Lv3.対応を自動学習する人工知能【課長】
5.4 Lv4.判断基準を設計する人工知能【経営層】
レベル3とレベル4の段階ではそれぞれ、機械学習
ディープラーニング(深層学習)という技術が必要になってくる
8 人工知能(AI)が使われたおすすめアプリ3選
8.1 ビジネスを加速させる出会い「yenta」
8.2 自分専用のスタイリスト「SENSY CLOSET」
8.3 Web記事の自動管理「StockMark」 FM-7 で実現した人口痴呆の時代から、ちっとも進化していないな。 >>58
AIは自発的に発展していくものじゃないよ。
無料で試せるから一度使いなさい。 AIの素人なのにAI本を売りさばいてる先生のプロジェクトの話かと思ったわ。情報発信力だけすごくて害悪だと思う ソフバンのショップで電源を抜かれてたペッパーが店の隅でうなだれてた悲哀 偏見じゃなくて事実だからだろ
偏見だと思ってるのが人間でしかないということ >>15
それを説明出来ないジャップ理系のせいで日本が没落したと
ものさえ作ればそれで良いってゴミ理系しかいないもんな日本って
キモオタの逃げ場。それが今の日本の理系
上に立つ気も力もないザ・底辺。ジャップ理系^^ >>29
がっかりオープンプロジェクトbyPythonって感じだな 使えない上司を判定するAI導入した方が会社がうまく回りそう。 がっかりAIって家電に無理やり音声認識機能つけるやつとかだろ
日本の家電メーカーがよくやりがちなやつ >>68
日本を駄目にしたのは文系・理系の概念
理系だから国語ができなくてもいい、経済オンチでもいい
文系だから数学ができなくてもいい、技術を知らなくてもいい
こんな奴が多すぎる AIに「我思う故に我あり」が理解できた時、始めてAIと言える >>52
自動運転はどういうときはどうするってパターンがすごく多いってことじゃないのかね
人間がいちいち何万何十万というパターンを定義する代わりに
機械学習で自動でやっちゃうっていうのが今のAI >>75
実際に一般道を1年ぐらい乗ってみた?
知ったかが今のAI >>1
AI とは半人前のアイアイです 統計学駆動の >>74
考えること=AIじゃないよ。
むしろ理解とはかけ離れ、数字から結果を出す統計に似た仕組みが使われているよ。 >>82
知ってますよ
だから人工知能じゃない、ただのプログラムだってことですね
人間で言ったら、知能じゃない、ただの本能、いや無意識レベルぐらいかな >>83
人工知能はAIという言葉を輸入翻訳したものなんだよ。 現代の日本人が幼いころから創作物で慣れ親しんでる人工知能、
それこそアトムやドラえもん的なAIのイメージと、
アメリカの業者さんが「これなら詐欺で訴えられないだろう」くらいの
レベルで売り出してる現在のAIとの差、って話じゃないのかな。
アメリカの消費者なら十分納得してくれるけど、
日本の消費者の期待・要求はもっと高い。それを知りながら
「とにかく我が社も“AI製品”を発売しなきゃ」と奮闘する
技術者や販売担当の人たちが感じてる良心の呵責、
氾濫する「AI搭載」をうたう機器に違和感を持つ日本の消費者。
…といった感じ。 >>85
説明が上手い! Aiの違和感とガッカリ感がまさにそれ 昔流行った「ファジー」、「3Dテレビ」なんかと変わらん
お偉いさんが意味も分からず「AI」言いたいだけ >>2
ベンチャーキャピタルや企業がバカから金を集めるためのキラーフレーズですわ 無条件に多くの情報を与え続ければどんどんブレていくのは当然だろ
人格に相当する基本的なポリシーやフィロソフィーが必要なんだよ >>90
AIには人格はないし人格に相当するようなものはない。
フィロソフィーはそれ自体論理の学問分野なので、
そこでは思想的なものは含まれない。哲学じゃなく
フィロソフィーなんだよね? 条件判定プログラムをAIと呼んで、将来はプログラマは必要ない
とか言ってる連中が多いのは確か。 > 【AI】“がっかりAI”はなぜ生まれる? 「作って終わり」のAIプロジェクトが失敗する理由
人間の脳の場合...
子供から大人になる過程や、勉強し始めてからいろいろ経験して成長する過程では
とんでもない数の細胞や知識が連鎖していろんな成長をするが...
企業や研究所が作ったAIは、単に人間が今まで得た知識などを基に作られてるだけで
いろんな「変化パターン」を膨大に増やしてるだけで人間の脳みそとは全然違うからだよ。
AIは人工頭脳ではない。 >>91
哲学が日本はごっちゃになってるよな。
東洋哲学(人生論・生き方論)と西洋哲学(ロジック)と違う事を知らないアホがちょいちょい居る。
この前、東洋経済オンラインで、
「欧州の科学者は哲学も学ぶから、日本の科学者と違って、モラルが高い。
だから日本の理系も哲学を学ばせるべき」
という趣旨の記事が堂々と出てて目を疑ったわw >>1
>女性よりも男性を高く評価する「偏見」を
性別だと「偏見」という事になるけど、それ以外のデータは「偏見」とは言わないで
優劣を付けるわけね AIは考えていない
膨大なデータとのパターンマッチングをやっているだけ
それ以上でも以下でもない 一言で言ってもしゃあなかんべ。
せめてMLとDLの違いくらいは説明したら? ■ このスレッドは過去ログ倉庫に格納されています