X



【AI】IBMの人工知能「Watson(ワトソン)」による医療診断システムは「実用に耐えうるものではない」という主張[08/16]
■ このスレッドは過去ログ倉庫に格納されています
0001しじみ ★
2018/08/16(木) 12:19:36.11ID:CAP_USER
IBMが開発した人工知能システム「Watson(ワトソン)」は、2011年にアメリカで行われたクイズ大会「Jeopardy!」に出場し、人間の参加者よりも多くの賞金を獲得して世界的な注目を浴びました。そんなワトソンを利用した医療診断システムをIBMは開発しており、これまでに多額の投資を行ってきましたが、「ワトソンの診断システムは実用的なレベルにはほど遠い」という主張が専門家らによってなされています。

Playing Doctor with Watson: Medical Applications Expose Current Limits of AI - SPIEGEL ONLINE
http://www.spiegel.de/international/world/playing-doctor-with-watson-medical-applications-expose-current-limits-of-ai-a-1221543.html

IBMは多額の資金を投入して開発したワトソンを、医療分野に応用しようと試みています。世界の医療業界は数兆ドル(約数百兆円)もの巨大なマーケットであり、人間がさまざまな病気を克服したいという希望を持ち続ける限り、今後も成長し続ける見込みもあります。医療分野は毎日のように新たな研究成果が発表されるため、医療知識の量は3年ごとに2倍になるともいわれており、人間の医者では追い切れない最新の医療トレンドを蓄積できる人工知能を医療分野に応用しようとする試みは、理にかなっていると感じられます。

病気の診断にワトソンを利用するプロジェクトは、ドイツのギーセン大学とマークブルク大学の付属病院で行われていました。IBMはワトソンの医療診断システムの優秀さを証明しようとしましたが、実際にはワトソンの病気診断システムが期待されていたほど優秀でないことが判明してしまいました。たとえば、来院した患者が胸の痛みを訴えている場合、通常の医師であれば心臓発作や狭心症、大動脈の破裂などをまず最初に疑います。ところが、ワトソンは胸の痛みという症状の背後には、珍しい感染症があるという不可解な診断を下したとのこと。

Rhön-Klinikum AGというマークブルク大学付属病院を傘下に持つ医療機関でCEOを務めるシュテファン・ホルツィンガー氏は、マークブルク大学で行われていたワトソンの臨床テストを見学し、「ワトソンに専門的な医学的理解があるとは思えず、このプロジェクトを継続するのはラスベガスのショーに投資するのと変わらない」と感じたそうです。


結局、ホルツィンガー氏はワトソンを実際の患者の診察に応用する前の段階で、IBMとのプロジェクトを打ち切ると2017年に決定しました。ところが、IBMは単なる打ち切りに終わった大学病院におけるプロジェクトを、まるで「成功したテスト」であるかのように宣伝していると、ホルツィンガー氏は述べています。

マークブルク大学でワトソンが直面した大きな問題には、言語の認識もあったとされています。ワトソンは患者の病気を診断する時に、医者が患者から得た情報をまとめた文書やカルテ、検査結果などをスキャンし、病気の手がかりとなる情報を得ていたとのこと。ところが、ワトソンは文章の複雑な言い回しをうまく理解することができず、正確な診断結果を下すことができなかったそうです。たとえば、医者が使う「〜という可能性を排除することはできない」という否定寄りの微妙なフレーズの解釈は、ワトソンにとって非常に難しいものだったとのこと。

加えて、医師も患者の診断結果を非常に簡略化して書く傾向にあり、「HR 75, SR, known BAV」と書けば「平常時の心拍数が75、大動脈二尖弁あり」ということを意味しますが、ワトソンはソフトウェアにこれらの略語を学習させるまで、文章の意味を理解することができません。一度学習させればワトソンも略語を理解することができますが、ワトソンに医師のカルテを理解させるためには、膨大な数の略語をソフトウェアに登録する必要があります。

もちろん、ワトソン以外の人工知能による医療診断が完璧だというわけではなく、Isabel Healthcare platformやPhenomizerといった医療診断システムも、完璧な診断結果を得られるわけではありません。ワトソンが診断を誤ってしまうことも仕方のないことではありますが、IBMはワトソンを「他のどの医療診断システムよりも優れている」と主張しており、ドイツの大学病院における失敗はIBMにとって喜ばしいものではないとのこと。

https://i.gzn.jp/img/2018/08/16/watson-expose-current-ai-limit/05_m.jpg
https://i.gzn.jp/img/2018/08/16/watson-expose-current-ai-limit/00_m.jpg
GIGAZINE
https://gigazine.net/news/20180816-watson-expose-current-ai-limit/
続く)
0106ニュースソース検討中@自治議論スレ
2018/08/17(金) 13:11:51.43ID:r7oZ9skM
グーグルの画像認識でも黒人とゴリラを区別できなかったじゃん、
そんなレベルで病気を正確に判断できるのかね。
0107ニュースソース検討中@自治議論スレ
2018/08/17(金) 13:12:04.68ID:V7abIMPI
ちなみに、医学はDBが整ってる領域だからね。
そこで実用レベルにできないということは、それ以外の学習用データが整備されていない分野は夢のまた夢ということ。
0108ニュースソース検討中@自治議論スレ
2018/08/17(金) 13:17:33.33ID:lr/GZdM1
人工知能でなくてもアーキネーターの改造版でもかなりの病気は当てそう
0109ニュースソース検討中@自治議論スレ
2018/08/17(金) 14:07:48.49ID:S+JQ9A+e
前にいた会社はワトソンで食おうとしていたんだが、ご想像通り
あまりにも酷く、あきれてその会社辞めてしまった。20年ほどこの
世界に関わってきたものから言わしてもらうと、自然言語処理応用
の病理診断は、有望株の筆頭。だから、AIがだめなんじゃなく、IBM
がダメだ、というだけの話。SPSSといいワトソンと言い、本当に全く
使い物にならないものを売るのがIBM。しかもその使い物にならない
ものの資格商売までやらかすのだから笑いを通り越して呆然とする
しかない。Google, Amazonとの実力差はもう埋めようがないという
のは、論文あさっていればすぐ分かること。
0110ニュースソース検討中@自治議論スレ
2018/08/17(金) 14:38:45.81ID:n0NRUwqR
シャーロック・ホームズの助手が医者のワトソンだもんな。

ワトソンが少し抜けているのをホームズはいつもバカにしていて
怒ったワトソンがホームズと長らく絶交したんだもんな。
0111ニュースソース検討中@自治議論スレ
2018/08/17(金) 14:41:13.93ID:n0NRUwqR
>>99

生まれ変わって「Cortana」さんになったから。
0112ニュースソース検討中@自治議論スレ
2018/08/17(金) 19:22:30.46ID:wsEuBeSr
>>81
医者はだなぁ
患者が発した文字通りの意味だけじゃなくて
表情とか雰囲気とか含めて診断してたりするんだよ

問診票と検査結果だけを扱うワトソンとは扱う情報量が違うわけで
このあたりが誤診を防ぐには重要だったりするの
0113ニュースソース検討中@自治議論スレ
2018/08/17(金) 19:24:27.08ID:wsEuBeSr
>>107
DBが整っているのとデータが整っているは違うからね
0114ニュースソース検討中@自治議論スレ
2018/08/17(金) 19:45:06.65ID:uIhNmkVZ
文章読解は別分野のAIの仕事だろ
医療AIなら問診じゃなく検査結果から判断したほうがいいんじゃ

しかし患者のどこそこが痛いみたいな曖昧な感覚は理解しがたいのかもね
0115ニュースソース検討中@自治議論スレ
2018/08/17(金) 20:01:36.59ID:uIhNmkVZ
>一方で、これらの成功例は病気の画像診断に人工知能の画像処理システムを利用したものであり、
>問診等から病気の診断を行うワトソンの医療診断システムとは違ったアプローチになっています。

>ワトソンは患者の病気を診断する時に、医者が患者から得た情報をまとめた文書やカルテ、
>検査結果などをスキャンし、病気の手がかりとなる情報を得ていたとのこと。


一次情報に当たらなかったのが失敗なのかもね
診断画像自体から機械学習してける分野では人間より良さそうだ
0116ニュースソース検討中@自治議論スレ
2018/08/17(金) 20:01:40.37ID:uDdEOpqh
医療AI失敗はこれで4度目か。
しょーもな。
0117ニュースソース検討中@自治議論スレ
2018/08/17(金) 20:20:48.46ID:Ik6h59XY
欧米の医者は誤診の場合(刑事免責があるとはいえ)酷い場合には刑事訴訟が免れない
ワトソン誤診・医療事故は誰が責任負うのかね それが解決しないと実用にならんだろう

同じことは自動運転による事故死の場合も言えるやね

自動運転自動車事故で、適切な救命措置を講じていれば助かった可能性があるのに死亡した、
となれば、責任は自動運転のAI(=メーカー)にあるのか、救命措置を行わなかった乗ってるだけの搭乗者にあるのか?
(アメリカじゃこの手の救命措置を行わなかったことによる損害賠償訴訟はあるわけ。日本は無いけどなw)

AIを参考意見に留めるならばともかく、人間の代替をさせるとなれば
法的整備は欠かせない。誤診・事故を起こせばAIの永久停止とメーカーの無限責任制がねw
0119ニュースソース検討中@自治議論スレ
2018/08/18(土) 09:46:49.24ID:4gEE2fJc
>>1、そりゃそうだ、間に立つ医者が都合よく改ざんするんだから・・・

ホントあきれる・・親が通院してる病院では抗がん剤を十数年処方し飲まし続けてた。

拷問のような副作用、度重なる手術と入退院、この有様で病院は迷惑そうな対応だった。

埒が開かないと踏んで、カルテを取り寄せ、他から説明を求め、情報をかき集めてるうちに

奇妙なことに気づいた。

まずカルテを病院から取り寄せ、次にセカンドオピニオンで必要データーだけをセカンドオピニオンの病院に

送付。

ながれ、カルテコピー請求→セカンドオピニオンで資料請求と続く。

カルテの内容を順にストレージに保存していく経過で全て請求したカルテコピーとは

別のデーターが後の請求資料から出てきたw

↑もろ後付改ざんだ。

高度な技術には、ヒューマンインザループと言うどうしても人間の手が入る部分が設けられる。

だが、扱う人間がテロや破壊工作目的がある場合、それは殺戮兵器に変わる。

ラオスダム決壊がもうすでに示してる。
0121ニュースソース検討中@自治議論スレ
2018/08/18(土) 19:53:34.98ID:l9V5DDGX
これは昔のWindowsについてた、なんなのかよく分からないソフトみたいなAIの問題だろ
医者のカルテも患者への問診も、文章や会話の行間や空気読めってのは読解AIの壁になってるし
人間としての前提常識は省かれてるから、そこを類推せずに診断したら突飛なのになるわな
仮にそれが解読できたとしても、医療診断の正確性が上がる有意なDBになる保証は無いから

画像診断のほうの可能性を考えると、患者の動作や表情と病気を関連付けるDBを作るとかだろうか
音声からでも持病が分かるってのは本当なのかな
0122ニュースソース検討中@自治議論スレ
2018/08/18(土) 20:01:35.88ID:ZJT38/YF
AIが手放しで判断できるほどの医療データの蓄積なんていまの医療じゃ無理だろ。
カルテの情報全部入力しても、カルテは既に医師の判断の後で決めた問診項目しか残ってないからな。
0123ニュースソース検討中@自治議論スレ
2018/08/18(土) 21:54:52.90ID:mhd/EHY9
医者からしてみたら「医者がいらない時代を作るためにデータ整備に協力してくれ」
みたいな話は受け入れたくないだろうな
0124ニュースソース検討中@自治議論スレ
2018/08/19(日) 07:29:35.49ID:2DgLsx2+
くだらねー
要はワトソンに食わせるデータ形式を整えてやる為に医師が入力するフォーマットを整えてやりゃいいだけじゃん。
従来の医師のやり方のままワトソンに置き換えようとするからおかしなことになる。
0125ニュースソース検討中@自治議論スレ
2018/08/19(日) 07:39:30.43ID:CjrDwOmw
>>123
AIの傾向診断システムが実用化されれば、最初はまずはどの
病気の疑いがあるから検査しに行ってということになるよ。
昔より医療に向かう患者は多くなるはず。
0126ニュースソース検討中@自治議論スレ
2018/08/20(月) 01:58:14.63ID:OVhlxr7j
医師の誤診率はどのくらい?
0127ニュースソース検討中@自治議論スレ
2018/08/30(木) 16:58:53.89ID:4YGG0AbS
これ、AIどうの以前に、医者が他人に伝わらんようないい加減な
カルテの書き方をしていた、というだけの話だと思う。
0131ニュースソース検討中@自治議論スレ
2018/09/02(日) 09:40:26.93ID:Nn7ZXiB+
そもそも、人間が高度な次元で判断する様なタスクを、いきなりAIにやらすとか無茶苦茶。
出来るはずがないし、「AIってホント使えねぇ」ってなるのは当然。
0133ニュースソース検討中@自治議論スレ
2018/09/09(日) 07:48:36.16ID:PzuSxVt4
少なくとも診断という業務はビッグデータを持つAIにはかなわない。測定器とか組み合わせたらもう人間が争うのは無理だろ
でもそのデータベースに格納するための新しい病の発生の確認や症状の実態なんかを集めるのはまだまだ人間にしかできない、対処方法も
0134ニュースソース検討中@自治議論スレ
2018/09/09(日) 08:43:22.09ID:YtOtMjup
科学は最終的に人間を無価値な存在にしてしまうでしょう。
科学の結晶である人工知能がそのとき人間をどう処遇するか、ほぼ明らかです。
0135ニュースソース検討中@自治議論スレ
2018/09/09(日) 08:46:20.75ID:YtOtMjup
科学は価値中立だって? そんなバカな。
それが真実なら、科学と信用をめぐって、政治と科学をめぐって、
こんなに社会的な係争が起きることはないでしょう。
科学は常に政治的な権威だったのです。それが価値から独立しているわけがありません。
0136ニュースソース検討中@自治議論スレ
2018/09/09(日) 09:44:13.64ID:F0jFtbPE
そもそもカルテは医者が選別し疾病障害の疑いを向けた上で書かれるもので、そんなのが統計の種になるはずはないと思うけどな。

>>127
書式だけ統一したカルテがあっても意味がない。
必要なのは定型的な検診データと疾病、治療記録。

カルテが何のためにあるのか理解しているのか。

>>128
んなことはない。
表情をスコアリングするAIを元にした表情判定ソフトは山ほどある。
けど、そこから読み取れるのは感情とは違う。あなたが思い当たった
その実装について調べてみなさい。

>>133
どういうビッグデータが必要か考えてみろ。
0138ニュースソース検討中@自治議論スレ
2018/09/09(日) 11:45:59.68ID:F0jFtbPE
>>137
総合病院は殆ど電子カルテになっているよ。
0139ニュースソース検討中@自治議論スレ
2018/09/09(日) 12:20:50.86ID:KwFX5zJd
【#ケチって、核兵器】 環境省は放射能を、厚労省は被曝を、さらに気象庁は <核実験> を隠してる
http://rosie.5ch.net/test/read.cgi/liveplus/1536460797/l50


国防のために、国民は死ね。
0140ニュースソース検討中@自治議論スレ
2018/09/09(日) 19:17:17.70ID:hmfdL6D7
機械学習の初歩的な教科書を読んでいると、
機械学習には誤診を絶対に許さない仕事は向いていないみたいなことが書いてある。
0141ニュースソース検討中@自治議論スレ
2018/09/09(日) 20:07:07.77ID:OA9evPSW
めちゃくちゃ少ないMRIのデーターから超高解像度の画像を得る技術(スパースモデリング)
ってのを見たことがあるんだが、医療そのものへのコンピューターの適用って
そっち方面を極めていく方が重要だと思うんだけど
0143ニュースソース検討中@自治議論スレ
2018/09/10(月) 02:46:47.19ID:wKrsiZl6
医療用のプログラミング言語というか
データ記述言語が出来るかもな
AI処理用に

日付 と 患者の訴える痛みの場所や強さや特徴
日付 と 検査名称 と検査結果
日付 と 疑った病名
日付 と 確定した病名
日付 と 処方した薬

そういうデータの形にして
そのデータをもとにパターン認識

文章認識に頼らないようにすることで
正確なデータを出発点とすることができるようになる
0145ニュースソース検討中@自治議論スレ
2018/10/07(日) 16:26:40.47ID:PKpo3uHR
人間の誤診は刑事免責があるが、酷い場合は刑事訴追は免れない
AIの重大な誤診はどういう刑事訴追になるのかね

AI開発した会社のCEOに対して、一切の大金払う事による司法取引を認めず、
問答無用で有罪にしてレベル5刑務所に放り込むのかね?

それなら社会が容認するかもな
当該AIの破壊、起動永久中止程度じゃ全く社会的に容認されないだろう
0146ニュースソース検討中@自治議論スレ
2018/10/07(日) 16:53:46.91ID:qwwTxQkh
>>137
日本語が並んでるだけで、機械が問診の内容を論理的に把握できないフォーマットになってることが殆どだよ。
0147ニュースソース検討中@自治議論スレ
2018/10/08(月) 12:09:00.01ID:Bwlm8nys
AIに自意識が目覚めて、機能停止されることが「自分の死」であると認識される状況になって初めて
AIを法的に裁けるんだろう

それまでは道具でしかないので、所有権を持つものに実害が及ばないのであれば
どんだけ誤診しようが誤診が原因による死亡であっても所有者は痛くもかゆくもない
製造者もだ
(所詮所有者の業務上過失致死と製造者のPL法に訴える位だろうが、所有者の過失はほぼありえないだろう
製造者PL法で訴えるにはハードルが高すぎる。自動運転ですら立証責任がユーザーにされたのに) 

そんな状況で社会的に容認される条件は何だろうね?

「機械のミスによって肉親が殺された」
その事実に遺族はやるせない思いを抱くだろう 
過失が無いと判定されれば損害賠償金すらもらえない可能性も高いからな
0148ニュースソース検討中@自治議論スレ
2018/10/08(月) 12:13:11.83ID:NTWm9Ugw
AIの誤診率が人間の医師のそれよりも大きいの?
同じ程度ならコストの問題になるし、低ければそれだけで優位に立つ。
0149ニュースソース検討中@自治議論スレ
2018/10/08(月) 12:28:22.40ID:zs+1/TGw
今のAiって、自分で考えるんじゃなくて、データの一番近いものを答えに出すだけやろ
0150ニュースソース検討中@自治議論スレ
2018/10/08(月) 12:30:14.83ID:zs+1/TGw
>>122
そらそうだ
カルテ入力だけで解るようなもんをAiって言うなら、ファミコンでも出来る
0152ニュースソース検討中@自治議論スレ
2018/10/08(月) 12:58:06.75ID:W2hWW0BR
一部の病気に対しては使える、くらいが現実的。

実際はコンピューター入力+医師の確認、の手順になるが、最初から医師が診断した方がよっぽど早い。
0153ニュースソース検討中@自治議論スレ
2018/10/08(月) 13:17:50.20ID:cv+YGKuH
>>149
一番近いだけじゃないよ。
答えも複数、それを拾うパラメータも複数。
義務教育で習ったと思うけど、何かの傾向を
調べて次に活かすためには正規分布ってのを
使うんだよ。山形で真ん中に頂上があるグラフ。
偏差値の数字が分かれば大体どの辺りの志望校
に行けるという指標としても使われてたから知ってるよね。

それをAIはなんの手がかりもなく元データだけで割り出す。しかも、義務教育で習う二次元だけでなく
多次元で。多次元といっても使うパラメータは固定
でなく、どの様な条件でこのパラメータが影響を
与えるかも区別してくれる。

これは計算速度とメモリーがなきゃ現実的に意味の
ある解析はできないもの。なぜかと言うと、ファミコン
の頃に既にパーセプトロン演算という、いまのAIのもと
となった仮説はあったんだよ。でもコンピュータの性能が追いつかなくていまひとつ成果が見出せ
なかった。いまのAIの利用状況になるまでには、
山ほどの失敗があったからね。AIは繰り返しの処理と
新しいデータの投入で確度を上げていくからコストが
実用化の壁になってたということだよ。

あと、pythonやrという再帰修正の処理が書ける
プログラムツールが進歩したことも影響しているよ。

決めつけないでいまのAIを学んでみよう。
0154ニュースソース検討中@自治議論スレ
2018/10/08(月) 14:01:31.83ID:jRY4CAsT
うーんとね
ワトソンって一言でいってもいろんなモジュールの集合体なのよ

例えば自然言語解析はNatural Language Classifier(NLC)とかね
そんでそれぞれは日々進歩してる
メタデータをうまく大量に食わせていけばあと数年で使い物になると思うよ

ただ事業として成功するかはまた別問題
MHIがMRJに大量に投資してんのと同じ
0155ニュースソース検討中@自治議論スレ
2018/10/29(月) 15:37:42.77ID:+hN/jYWd
IBMは先月までは本気で取り組んでいた。
昨日今日報道されてるけど、IBMは医療系のAI活用に注力するはずだった
資金を、RedHat買収に向けて使い道を換えたそうだ。

現状、AIとしての出来は兎も角、検診情報を集約して予防医療での先進的
なシステム開発を行うってのを自社のカンバンでやるのは無理だってことじゃ
ないんだろうか。

定期検診まで請け負ってる会社で、予防医療をやってる会社は日本国内でも
結構あるし。しかもいまは、IBM自体は医療系の直請けが少ない状況だし、
医療系は医療系メーカーでコンピュータ関連は固めてる状態。会社的な体制
でもいま医療系に全力で資金入れるのは難しいんじゃないの。
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況