【AI】IBMの人工知能「Watson(ワトソン)」による医療診断システムは「実用に耐えうるものではない」という主張[08/16]
■ このスレッドは過去ログ倉庫に格納されています
IBMが開発した人工知能システム「Watson(ワトソン)」は、2011年にアメリカで行われたクイズ大会「Jeopardy!」に出場し、人間の参加者よりも多くの賞金を獲得して世界的な注目を浴びました。そんなワトソンを利用した医療診断システムをIBMは開発しており、これまでに多額の投資を行ってきましたが、「ワトソンの診断システムは実用的なレベルにはほど遠い」という主張が専門家らによってなされています。
Playing Doctor with Watson: Medical Applications Expose Current Limits of AI - SPIEGEL ONLINE
http://www.spiegel.de/international/world/playing-doctor-with-watson-medical-applications-expose-current-limits-of-ai-a-1221543.html
IBMは多額の資金を投入して開発したワトソンを、医療分野に応用しようと試みています。世界の医療業界は数兆ドル(約数百兆円)もの巨大なマーケットであり、人間がさまざまな病気を克服したいという希望を持ち続ける限り、今後も成長し続ける見込みもあります。医療分野は毎日のように新たな研究成果が発表されるため、医療知識の量は3年ごとに2倍になるともいわれており、人間の医者では追い切れない最新の医療トレンドを蓄積できる人工知能を医療分野に応用しようとする試みは、理にかなっていると感じられます。
病気の診断にワトソンを利用するプロジェクトは、ドイツのギーセン大学とマークブルク大学の付属病院で行われていました。IBMはワトソンの医療診断システムの優秀さを証明しようとしましたが、実際にはワトソンの病気診断システムが期待されていたほど優秀でないことが判明してしまいました。たとえば、来院した患者が胸の痛みを訴えている場合、通常の医師であれば心臓発作や狭心症、大動脈の破裂などをまず最初に疑います。ところが、ワトソンは胸の痛みという症状の背後には、珍しい感染症があるという不可解な診断を下したとのこと。
Rhön-Klinikum AGというマークブルク大学付属病院を傘下に持つ医療機関でCEOを務めるシュテファン・ホルツィンガー氏は、マークブルク大学で行われていたワトソンの臨床テストを見学し、「ワトソンに専門的な医学的理解があるとは思えず、このプロジェクトを継続するのはラスベガスのショーに投資するのと変わらない」と感じたそうです。
結局、ホルツィンガー氏はワトソンを実際の患者の診察に応用する前の段階で、IBMとのプロジェクトを打ち切ると2017年に決定しました。ところが、IBMは単なる打ち切りに終わった大学病院におけるプロジェクトを、まるで「成功したテスト」であるかのように宣伝していると、ホルツィンガー氏は述べています。
マークブルク大学でワトソンが直面した大きな問題には、言語の認識もあったとされています。ワトソンは患者の病気を診断する時に、医者が患者から得た情報をまとめた文書やカルテ、検査結果などをスキャンし、病気の手がかりとなる情報を得ていたとのこと。ところが、ワトソンは文章の複雑な言い回しをうまく理解することができず、正確な診断結果を下すことができなかったそうです。たとえば、医者が使う「〜という可能性を排除することはできない」という否定寄りの微妙なフレーズの解釈は、ワトソンにとって非常に難しいものだったとのこと。
加えて、医師も患者の診断結果を非常に簡略化して書く傾向にあり、「HR 75, SR, known BAV」と書けば「平常時の心拍数が75、大動脈二尖弁あり」ということを意味しますが、ワトソンはソフトウェアにこれらの略語を学習させるまで、文章の意味を理解することができません。一度学習させればワトソンも略語を理解することができますが、ワトソンに医師のカルテを理解させるためには、膨大な数の略語をソフトウェアに登録する必要があります。
もちろん、ワトソン以外の人工知能による医療診断が完璧だというわけではなく、Isabel Healthcare platformやPhenomizerといった医療診断システムも、完璧な診断結果を得られるわけではありません。ワトソンが診断を誤ってしまうことも仕方のないことではありますが、IBMはワトソンを「他のどの医療診断システムよりも優れている」と主張しており、ドイツの大学病院における失敗はIBMにとって喜ばしいものではないとのこと。
https://i.gzn.jp/img/2018/08/16/watson-expose-current-ai-limit/05_m.jpg
https://i.gzn.jp/img/2018/08/16/watson-expose-current-ai-limit/00_m.jpg
GIGAZINE
https://gigazine.net/news/20180816-watson-expose-current-ai-limit/
続く) 医者が長年培った保身術が機械に弾かれるというだけなのではw グーグルの画像認識でも黒人とゴリラを区別できなかったじゃん、
そんなレベルで病気を正確に判断できるのかね。 ちなみに、医学はDBが整ってる領域だからね。
そこで実用レベルにできないということは、それ以外の学習用データが整備されていない分野は夢のまた夢ということ。 人工知能でなくてもアーキネーターの改造版でもかなりの病気は当てそう 前にいた会社はワトソンで食おうとしていたんだが、ご想像通り
あまりにも酷く、あきれてその会社辞めてしまった。20年ほどこの
世界に関わってきたものから言わしてもらうと、自然言語処理応用
の病理診断は、有望株の筆頭。だから、AIがだめなんじゃなく、IBM
がダメだ、というだけの話。SPSSといいワトソンと言い、本当に全く
使い物にならないものを売るのがIBM。しかもその使い物にならない
ものの資格商売までやらかすのだから笑いを通り越して呆然とする
しかない。Google, Amazonとの実力差はもう埋めようがないという
のは、論文あさっていればすぐ分かること。 シャーロック・ホームズの助手が医者のワトソンだもんな。
ワトソンが少し抜けているのをホームズはいつもバカにしていて
怒ったワトソンがホームズと長らく絶交したんだもんな。 >>99
生まれ変わって「Cortana」さんになったから。 >>81
医者はだなぁ
患者が発した文字通りの意味だけじゃなくて
表情とか雰囲気とか含めて診断してたりするんだよ
問診票と検査結果だけを扱うワトソンとは扱う情報量が違うわけで
このあたりが誤診を防ぐには重要だったりするの >>107
DBが整っているのとデータが整っているは違うからね 文章読解は別分野のAIの仕事だろ
医療AIなら問診じゃなく検査結果から判断したほうがいいんじゃ
しかし患者のどこそこが痛いみたいな曖昧な感覚は理解しがたいのかもね >一方で、これらの成功例は病気の画像診断に人工知能の画像処理システムを利用したものであり、
>問診等から病気の診断を行うワトソンの医療診断システムとは違ったアプローチになっています。
>ワトソンは患者の病気を診断する時に、医者が患者から得た情報をまとめた文書やカルテ、
>検査結果などをスキャンし、病気の手がかりとなる情報を得ていたとのこと。
一次情報に当たらなかったのが失敗なのかもね
診断画像自体から機械学習してける分野では人間より良さそうだ 欧米の医者は誤診の場合(刑事免責があるとはいえ)酷い場合には刑事訴訟が免れない
ワトソン誤診・医療事故は誰が責任負うのかね それが解決しないと実用にならんだろう
同じことは自動運転による事故死の場合も言えるやね
自動運転自動車事故で、適切な救命措置を講じていれば助かった可能性があるのに死亡した、
となれば、責任は自動運転のAI(=メーカー)にあるのか、救命措置を行わなかった乗ってるだけの搭乗者にあるのか?
(アメリカじゃこの手の救命措置を行わなかったことによる損害賠償訴訟はあるわけ。日本は無いけどなw)
AIを参考意見に留めるならばともかく、人間の代替をさせるとなれば
法的整備は欠かせない。誤診・事故を起こせばAIの永久停止とメーカーの無限責任制がねw 適材適所
AIが得意とすることにはAIを使えばいいし
人間の方がうまくこなせることは人間がやればいい >>1、そりゃそうだ、間に立つ医者が都合よく改ざんするんだから・・・
ホントあきれる・・親が通院してる病院では抗がん剤を十数年処方し飲まし続けてた。
拷問のような副作用、度重なる手術と入退院、この有様で病院は迷惑そうな対応だった。
埒が開かないと踏んで、カルテを取り寄せ、他から説明を求め、情報をかき集めてるうちに
奇妙なことに気づいた。
まずカルテを病院から取り寄せ、次にセカンドオピニオンで必要データーだけをセカンドオピニオンの病院に
送付。
ながれ、カルテコピー請求→セカンドオピニオンで資料請求と続く。
カルテの内容を順にストレージに保存していく経過で全て請求したカルテコピーとは
別のデーターが後の請求資料から出てきたw
↑もろ後付改ざんだ。
高度な技術には、ヒューマンインザループと言うどうしても人間の手が入る部分が設けられる。
だが、扱う人間がテロや破壊工作目的がある場合、それは殺戮兵器に変わる。
ラオスダム決壊がもうすでに示してる。 これは昔のWindowsについてた、なんなのかよく分からないソフトみたいなAIの問題だろ
医者のカルテも患者への問診も、文章や会話の行間や空気読めってのは読解AIの壁になってるし
人間としての前提常識は省かれてるから、そこを類推せずに診断したら突飛なのになるわな
仮にそれが解読できたとしても、医療診断の正確性が上がる有意なDBになる保証は無いから
画像診断のほうの可能性を考えると、患者の動作や表情と病気を関連付けるDBを作るとかだろうか
音声からでも持病が分かるってのは本当なのかな AIが手放しで判断できるほどの医療データの蓄積なんていまの医療じゃ無理だろ。
カルテの情報全部入力しても、カルテは既に医師の判断の後で決めた問診項目しか残ってないからな。 医者からしてみたら「医者がいらない時代を作るためにデータ整備に協力してくれ」
みたいな話は受け入れたくないだろうな くだらねー
要はワトソンに食わせるデータ形式を整えてやる為に医師が入力するフォーマットを整えてやりゃいいだけじゃん。
従来の医師のやり方のままワトソンに置き換えようとするからおかしなことになる。 >>123
AIの傾向診断システムが実用化されれば、最初はまずはどの
病気の疑いがあるから検査しに行ってということになるよ。
昔より医療に向かう患者は多くなるはず。 これ、AIどうの以前に、医者が他人に伝わらんようないい加減な
カルテの書き方をしていた、というだけの話だと思う。 >>112
そういう、表情から直感的に判断、みたいなのはむしろ
最近のAIにとっての得意分野だよ わけのわからん言い回しとか、ローカルな略語とか、
AI導入以前に電子カルテ化して書式統一すればいい話。 そもそも、人間が高度な次元で判断する様なタスクを、いきなりAIにやらすとか無茶苦茶。
出来るはずがないし、「AIってホント使えねぇ」ってなるのは当然。 少なくとも診断という業務はビッグデータを持つAIにはかなわない。測定器とか組み合わせたらもう人間が争うのは無理だろ
でもそのデータベースに格納するための新しい病の発生の確認や症状の実態なんかを集めるのはまだまだ人間にしかできない、対処方法も 科学は最終的に人間を無価値な存在にしてしまうでしょう。
科学の結晶である人工知能がそのとき人間をどう処遇するか、ほぼ明らかです。 科学は価値中立だって? そんなバカな。
それが真実なら、科学と信用をめぐって、政治と科学をめぐって、
こんなに社会的な係争が起きることはないでしょう。
科学は常に政治的な権威だったのです。それが価値から独立しているわけがありません。 そもそもカルテは医者が選別し疾病障害の疑いを向けた上で書かれるもので、そんなのが統計の種になるはずはないと思うけどな。
>>127
書式だけ統一したカルテがあっても意味がない。
必要なのは定型的な検診データと疾病、治療記録。
カルテが何のためにあるのか理解しているのか。
>>128
んなことはない。
表情をスコアリングするAIを元にした表情判定ソフトは山ほどある。
けど、そこから読み取れるのは感情とは違う。あなたが思い当たった
その実装について調べてみなさい。
>>133
どういうビッグデータが必要か考えてみろ。 カルテも電子化されてるっていうけど、どうなんだろうね >>137
総合病院は殆ど電子カルテになっているよ。 【#ケチって、核兵器】 環境省は放射能を、厚労省は被曝を、さらに気象庁は <核実験> を隠してる
http://rosie.5ch.net/test/read.cgi/liveplus/1536460797/l50
国防のために、国民は死ね。 機械学習の初歩的な教科書を読んでいると、
機械学習には誤診を絶対に許さない仕事は向いていないみたいなことが書いてある。 めちゃくちゃ少ないMRIのデーターから超高解像度の画像を得る技術(スパースモデリング)
ってのを見たことがあるんだが、医療そのものへのコンピューターの適用って
そっち方面を極めていく方が重要だと思うんだけど 人間抜きで診断結果は使えないのは当然かと。医者が機械学習の診断結果を参考に、責任をもって診断する。 医療用のプログラミング言語というか
データ記述言語が出来るかもな
AI処理用に
日付 と 患者の訴える痛みの場所や強さや特徴
日付 と 検査名称 と検査結果
日付 と 疑った病名
日付 と 確定した病名
日付 と 処方した薬
そういうデータの形にして
そのデータをもとにパターン認識
文章認識に頼らないようにすることで
正確なデータを出発点とすることができるようになる 人間の誤診は刑事免責があるが、酷い場合は刑事訴追は免れない
AIの重大な誤診はどういう刑事訴追になるのかね
AI開発した会社のCEOに対して、一切の大金払う事による司法取引を認めず、
問答無用で有罪にしてレベル5刑務所に放り込むのかね?
それなら社会が容認するかもな
当該AIの破壊、起動永久中止程度じゃ全く社会的に容認されないだろう >>137
日本語が並んでるだけで、機械が問診の内容を論理的に把握できないフォーマットになってることが殆どだよ。 AIに自意識が目覚めて、機能停止されることが「自分の死」であると認識される状況になって初めて
AIを法的に裁けるんだろう
それまでは道具でしかないので、所有権を持つものに実害が及ばないのであれば
どんだけ誤診しようが誤診が原因による死亡であっても所有者は痛くもかゆくもない
製造者もだ
(所詮所有者の業務上過失致死と製造者のPL法に訴える位だろうが、所有者の過失はほぼありえないだろう
製造者PL法で訴えるにはハードルが高すぎる。自動運転ですら立証責任がユーザーにされたのに)
そんな状況で社会的に容認される条件は何だろうね?
「機械のミスによって肉親が殺された」
その事実に遺族はやるせない思いを抱くだろう
過失が無いと判定されれば損害賠償金すらもらえない可能性も高いからな AIの誤診率が人間の医師のそれよりも大きいの?
同じ程度ならコストの問題になるし、低ければそれだけで優位に立つ。 今のAiって、自分で考えるんじゃなくて、データの一番近いものを答えに出すだけやろ >>122
そらそうだ
カルテ入力だけで解るようなもんをAiって言うなら、ファミコンでも出来る 一部の病気に対しては使える、くらいが現実的。
実際はコンピューター入力+医師の確認、の手順になるが、最初から医師が診断した方がよっぽど早い。 >>149
一番近いだけじゃないよ。
答えも複数、それを拾うパラメータも複数。
義務教育で習ったと思うけど、何かの傾向を
調べて次に活かすためには正規分布ってのを
使うんだよ。山形で真ん中に頂上があるグラフ。
偏差値の数字が分かれば大体どの辺りの志望校
に行けるという指標としても使われてたから知ってるよね。
それをAIはなんの手がかりもなく元データだけで割り出す。しかも、義務教育で習う二次元だけでなく
多次元で。多次元といっても使うパラメータは固定
でなく、どの様な条件でこのパラメータが影響を
与えるかも区別してくれる。
これは計算速度とメモリーがなきゃ現実的に意味の
ある解析はできないもの。なぜかと言うと、ファミコン
の頃に既にパーセプトロン演算という、いまのAIのもと
となった仮説はあったんだよ。でもコンピュータの性能が追いつかなくていまひとつ成果が見出せ
なかった。いまのAIの利用状況になるまでには、
山ほどの失敗があったからね。AIは繰り返しの処理と
新しいデータの投入で確度を上げていくからコストが
実用化の壁になってたということだよ。
あと、pythonやrという再帰修正の処理が書ける
プログラムツールが進歩したことも影響しているよ。
決めつけないでいまのAIを学んでみよう。 うーんとね
ワトソンって一言でいってもいろんなモジュールの集合体なのよ
例えば自然言語解析はNatural Language Classifier(NLC)とかね
そんでそれぞれは日々進歩してる
メタデータをうまく大量に食わせていけばあと数年で使い物になると思うよ
ただ事業として成功するかはまた別問題
MHIがMRJに大量に投資してんのと同じ IBMは先月までは本気で取り組んでいた。
昨日今日報道されてるけど、IBMは医療系のAI活用に注力するはずだった
資金を、RedHat買収に向けて使い道を換えたそうだ。
現状、AIとしての出来は兎も角、検診情報を集約して予防医療での先進的
なシステム開発を行うってのを自社のカンバンでやるのは無理だってことじゃ
ないんだろうか。
定期検診まで請け負ってる会社で、予防医療をやってる会社は日本国内でも
結構あるし。しかもいまは、IBM自体は医療系の直請けが少ない状況だし、
医療系は医療系メーカーでコンピュータ関連は固めてる状態。会社的な体制
でもいま医療系に全力で資金入れるのは難しいんじゃないの。 ■ このスレッドは過去ログ倉庫に格納されています