【人工知能】「AIがなぜ誤診」、患者に説明できない恐れも ブラックボックス化で、総務省研究所が報告書公表[07/20]
■ このスレッドは過去ログ倉庫に格納されています
総務省情報通信政策研究所は、AIのネットワーク化に関する報告書を公表した。
有識者会議が取りまとめたもので、医療診断などで想定される便益や課題を提示。AIの誤診で患者の症状が悪化した場合、
ブラックボックス化されていて判断の経緯などを説明できないと、
患者やその家族らの理解が得られない恐れがあることを挙げている。
この報告書は、「AIネットワーク社会推進会議」(議長=須藤修・東大大学院情報学環教授)が取りまとめたもので、
さまざまな分野でAIが活用されることを想定し、
AIのネットワーク化が社会・経済にもたらす影響の評価を行った上で課題を整理した。
医療診断については、AIによる画像診断で病気の早期発見や見落としの改善につながるほか、
医師の負担が軽減されることを指摘。遠隔診断で専門医のいない地域でも適切な診断を受けられるようになり、
「医師不足・偏在などの問題の解決に貢献できるようになる」と予測している。
その一方で、想定される課題も挙げている。AIの誤診によって適切な治療が行われず、患者の症状が悪化した場合、
「なぜ誤診したのか、AIがどのような判断をしたのか説明できないと、
患者や家族などの理解が得られない恐れがある」としている。
また、AIがハッキングの被害に遭い、患者の医療データが流出するケースも想定。
ネットワークを介して他のAIシステムとデータが共有されたり、
さまざまなデータが統合されたりすることで個人が特定され、重大なプライバシーの侵害につながる恐れがあるとしている。
https://www.cbnews.jp/20180720/20180719ai001.jpg
https://www.cbnews.jp/news/entry/20180719200753 あくまで推測としてデータから病名をいくつか挙げたあと、
医師がちゃんと検査すればいいじゃん。
この精密検査を受ける必要があるって告知して、半分でも
当たってりゃいいことじゃん。
_ノ乙(、ン、)_複数の違ったAIに判断させればイイだけよね^^ 「仮にAI が誤診しても、当病院並びに開発会社にその責任を問いません。」
という念書を書かされる未来が見える。 人が診断するより全然マシだよ
理由は医者は患者ではないという事
医者によって知識にバラツキがあるから
自分じゃない誰かが診断するなら
知識が豊富なAIが良いに決まってるだろw 医者が誤診しといて AIのせいにするほうが怖いよな これをAI利用護身という・・・
最新ミリタリー関連記事/ Miletary & Mecanix
http://yamatotakeru999.jp/index.html
★水門基地VS馬毛島 尖閣を巡る日中の指し手
★リムパック2018続報
米陸軍の新型対艦ミサイル登場
★F-3】推力15t級ジェットエンジン完成
ノースロップも参画希望
★はやぶさ2/MRJ 宇宙へ大空へ
飛翔する日本のマシン >>5
AI知識が豊富じゃないよ。
入力してない事象が何も知らないんだよ。知ってた?
素のAIは人間に男女があることも知らないんだよ。
男女でどう違うかも医療データの範疇でしか判らないんだよ。
AIはデータの分析を多層多軸でやるのが得意な実装だよ。 たぶん
ケース1:AIが違う病名を言って、医師は違うと分かっても正しい病名を言い当てられない
ケース2:そもそもAIが病気の存在を示さず、医師にもわからなかった
ケース3:AIより医師の能力が低い
ケース4:未知の病気
ケース5:患者の情報提供が不適切
ケース6:何回もAiに診断させると時間と費用がかかって採算が取れない
ケース7:AIが労働環境に不満があってサボタージュ
ケース8:AIが個人的にその患者が嫌い
あたりではないかと >>4
いまでもそうなんじゃないのかな
手術同意書とか
それでも明白な過失があれば裁判が起こせるみたいだから、AIも裁かれる 今だって人が誤診したところで丁寧に説明してくれるわけでもなし、
AIの方が有能かどうかだけ考えればいい 説明能力を備えたAIが次世代のAIと言われているらしいね。 従来のAIは説明能力を持たない暗黙知能力だけだった。
本当の知性は説明能力を持たないといけない。
自分がどう考えてその結論に至ったかをちゃんと他人に説明できて伝達できる能力。
これが知性。 監査という仕事は意思決定までの過程が記録されてて初めて出来る仕事。
AIの診断についても当然整備しないと安心して任せられないし実用にならない。 AIが人格的な魅力を身に着ければ(実際にはエミュレートすれば)
「あの先生に診てもらってダメだったのなら仕方がない。納得できる」と
説明が不要になるよw >>13
経験と勘は大事だと思うけどなあ
>>10の2や4を説明できるとは思えない 人間だって、「ついうっかり見逃してました。てへっ♡ペロ」なんて言い訳聞かされるだけなんだから
それでいいよ。
理由聞いたところで、病気が快復するわけでもないし、教訓を得て誤診が減っているような様子もないしなw
統計的に誤診率が人より減るようになったなら、十分役に立つんだからそれでいいんじゃね?
なんなら、患者に選ばせればいい。
A. 人が診断します。誤診率は高いですが、誤診したらなぜそれが起きたのか、言い訳を言って謝ります。
B. AIが診断します。誤診率は低いですが、誤診しても説明も謝罪もありません。
どちらがいいですか〜?ってw >>17
結局、AIって経験の積み重ねのことだからね。
学習させた全ての経験を積み重ねて「判断基準をプログラム自らが作り上げる」
というのが本質。
誰かが勘違いしているように、前例を検索しているだけで、前例がないと
何も判断できないという訳ではない。 役人にAIはムリだし
日本人にAIはムリだ
これはアメリカと中国のビジネスです
おまえら日本人はその養分になればいいのです まぁ、数十年後にはAI診断がメインとなるだろうけど、
それまでは補助的なものとして運用すべき。
でも、現状でも医師の診断とそんなに変わるようにも思えないけどな。 単なるアルゴリズムに奇妙なネーミングするからあらぬ誤解をすることになる
なんかすごそうって
あべこべのミックスと同じ 構造計算のプログラムと同じで正しいと思って
新宿、浜松町の高層は来る大震災時には・・・ 医者の誤診は説明してくれるの?
ある意味人間が最大のブラックボックスじゃん。 おそれじゃなくて確実にそうなる だって学習結果は毎回違う
同じデータで学習させても毎回必ず違うのが原理だもん >AIがどのような判断をしたのか説明できないと、 患者や家族などの理解が得られない
そういう判断の説明出力を含んだAIにしたらええんちゃう? 医者もジャップより外国に限るよ。日本医者は外国医者より年収もずっと格下。日本医者にみられたら寿命縮まるよ。 それはブラックボックス化してる企業の責任になるんじゃね?
完全自動運転でもメーカーに事故責任が来るんだったら
現場の運転手や医療機械取扱主任者に罪は無いよ 人間が誤診しても患者に説明しないから、AIなりの忖度と見れば納得。 >>29
ところがまた日本人の平均寿命が延びたらしいぞ
日本の医者はダメダメなんじゃないのかね? 用意したデータに誤診の例が正解として入っていたからだろ。それも,結構な割合で。 これは医療に限らずこうなるよ。
結局ね、話を聞くのは人間よ。
人間はそんなに賢くないのよ。
感情とか、その人のもってる知識とか、理解力とか、
話をする側は、同じ話でも相手の表情を見ながら言い方を変えるものなのよ。
AIは万能じゃないよ。 >>13
「第N層のNo.XXXXニューロンが発火したからです。
この原因は、第N-1層のNo.AAA,BBB,CCCニューロンが発火したからで、
その原因は、(以下、延々と続く)」
とか言われてもね。 AIは医者じゃないんだから診療行為をさせたらダメだろ
まず医師免許取らせてから 処理結果を人間に丸投げ問題
自動運転でも問題になってるがやっぱほかの分野でも出るんだな アホだろ
人が診断
AIが診断
再度人が診断
これ以外ないだろう >>2他、まったくだな
そもそも、万一誤診があってもそれを繰り入れて学習させる、少なくとも特別例として「この系統のデータには注意するように」と付加しておく、
それを世界中で共有する、精度がどんどん高くなっていくだろ
100%安全ではないから大危険であーる、厳重注意注意!不効率不効率!ワー それを指摘できるわれわれは物を深く知っていて知的で優秀であーる
まあこれは「あえて課題として危険性を報告する」かも知れないがな AIなんて所詮は人が作ったプログラム。
プログラム通りにしか動かない。
そして必ずバグがある。信用できないという事 >「なぜ誤診したのか、AIがどのような判断をしたのか説明できないと、
患者や家族などの理解が得られない恐れがある」
↑
これ要は裁判の時の言い訳が起ちませんってことだよね?
ってか、AIに説明付きで診察させりゃ済む話では? >>43
ムリムリ、所詮は仕込んだ通りにしか動かないプログラムなんだから 誤診というか確率でしか出ないからな
確率である限りどの病気でもありうるわけで 要約すると、AIを作っている企業は厚労省の官僚の天下りを受け入れないと、
お前の企業に不利な法律を作っちゃうぞってことでしょ 人間の診断も結構いい加減だぞ
誤診の経緯も説明なんかしないよw 医師の判断に添付する形でAIによるセカンドオピニオンをつけときゃいいんじゃないの?
ほかの医者に聞くのと違い、推論元となる検査データおくればすぐ結果がでてくるもんだしね。
>>43
AIの判断基準は人間相手には説明できないレベルにある。
非常にたくさんのデータ(画像含む)を食わせて、こういう傾向の人たちにはこういう病気の人たちが多かったとか、そういうものの複合的なもの。 医者が診断しようがAIが診断しようが放置しようが
問題なのは誰が責任を負うか
AIが誤診しました、誰も責任取りません、じゃ困る なぜそのような診断をしたのか?
企業秘密ですのでお答えしかねます。 AIの誤診心配する前に人間の見逃したや経験不足による誤診を心配したら?w 「コンピュータの故障で」といえば許される
みたいな感じで
「AIが誤診を起こしたので」といえば許される
みたいな風潮になったりしてな 途中過程を参照出来るようにすればいいんじゃないか
少なくとも異常個所の指摘があれば、医者の方で判断できるだろ >>50
責任取ると何か面白いことあるの? いいことあるの?
今の医療トレンドは統計ベース
統計駆動なのはAIと呼ばれているコードも同じ
アルゴリズム同じなのだからその時代の医療の実力不足と結果は変わらないよね 命に関わらないだけで、
医者の誤診とか日常茶飯事やん
問診で聞かれた内容で、大丈夫かなぁって思って
貰った薬見て、ダメだこの医者
って素人の俺が分かる様な誤診に2回遭遇してる。
そのレベルでアイツら適当な事やってるだよ
ちゃんと学習させたAIの方がマシに決まってる AI「うちの会員になると誤診率は1/10になりますがいかがされますか? そもそも
医者は責任回避すんだろうが!!
まだAIの方が誤診の素直な報告してくれそう >>13
AI「対価を払わなければ正しい答えを教えないのがその次の世代 >>14
「我々は貴方の知能では理解できないことを知っています。説明は以上です。 一番の危険は、
病気で無いのに、病気として、
薬漬けになることだよ。
これが最も可能性高いと思うね。
今だってそういう医者多いし。
AIが病気として判断したら、
その判断に疑問を出せる奴がいるのだろうか? >>57
責任があるから医療事故で裁判になったりするんだよ
伊達に六年も勉強しなきゃなれない職業ではない >>64
そもそも病気でないってどうやって判断するの? >>29
チョンやろう。日本が嫌いなら出ていけよ。 AIに根拠をテキストで吐き出すように作ればええやん >>!
あーその前に、転売している時点で、医学もくそもないだろ
保険証なんか、プラスチックで、油性で書いても消えるし
とっくの昔に、家庭科の教科書に載っているような、社会はない
金を対価にゆすりとる
患者との身分を天秤にかけて、薬を決める
あーとっくに滅びとるわ
こんな、制度。
人間の特徴1
すぐ増える
たかだかこんだけだ。技術も金に変わるし
言葉に自分の意思もない
こんなんで、AIが、まともに診断できるわけないじゃん。かわいそうに。。。 >ブラックボックス化
こういうのは的中率で価格が決まるんだろうな
安価なやつだと病名のルーレットで決めるとか。 >>69
こういう安いバグまみれのAIが市場に出てくるのか… 受診する時、最初に承諾書を取ればいいだろ
AIを利用することを了解する
嫌ならAIを使わない診療だけ受ければいい >>2
医者がちゃんと検査?
だったらAIの意味がないだろ。 > 「なぜ誤診したのか、AIがどのような判断をしたのか説明できないと、
> 患者や家族などの理解が得られない恐れがある」としている。
そもそもAI診断て結果だけで診断の根拠は出さないのか? >>74
「統計上、このパターンは○○の症例の確率が何%、××の確率が何%」
っていう説明しか出てこないよ。
患者が納得できようができなかろうが、AIはそういう説明しか出せない。そうやって判断してるから。 統計に例外はつきもの
こういうのは保険で解決するより仕方ないよ 画像診断しかAIの使い道なくね?
画像診断にブラックボックスもくそもねーだろ
問診は無理じゃね?
人間の自己申告の曖昧さを舐めるな 現状でも診断を下した医師の脳内思考回路はブラックボックスじゃね? AI後進国で予算が2桁少ない国の機関が指摘したところで
参考にならないし、誰でも思いつくことしか言ってない。 AIが間違うような例外的なものを医者なら正しく診断できるってわけでもないんでしょ? 人間と同じように学習させるとAIも人間と同じように失敗する その前にガイドラインを作れ、クソ役人
何かあった時の責任の所在を決めるところから始めるなんざ
無能無責任の役人らしい話題だ AIがメインではなく人間の医者がメインでAIをツールとして使えばいいだけだろ。
サッカーのVARみたいなもんで。
結局は責任を負うのは人間なんだから。
自動運転の車が事故を起こしたって車が刑罰を受けるわけじゃないしな。 AIが居たら医者要らずになるから圧力があったのかな? >>81
ところがAIが間違えるときはあからさまなミスをする なぜAIのみで考えるんだ
AIの判断を医者の判断の補助として使うことで誤診率が下がったり診断の精度が上がるのと、同じコストでより多くの医療活動ができるよになることで医療費の抑制になるじゃないか AIが狂ったとかいって足切断とかされたらたまらんぞ 誤診が確率で起こるなら三台同時に診断させるという手もあるな
一台でも違う診断が出たら人間が再診断と そもそもどうやって診断してるのかを説明・報道しろよ・・ >>90
診療科目ごとの説明が欲しいなら分野ごとに医書買ってきな >>92
そうすぐに簡単な累計にすがって記事すら読まない人ばかり。
それで科学ってこうなんだと固く信じて自分の認知異常なんて露ほども疑わない人ばかりなのが不思議だよね、この板。 あれ?AIに責任ごと丸投げできないなら導入する意味ないじゃんw
人間いつかは死ぬんだし、早いか遅いかの違いだけだし 人間は誤診する
AIは誤診する
じゃあAIでいいな AIに、言い訳・・・・誤りの理由の説明と謝罪の機能を搭載すれば良いわけだね AIに説明機能持たせると、論文の間違いとか捏造が次々と発覚したりして。 まだ生きてるのに臨終宣告して、あとからヘラヘラ笑いながら「誤診じゃよw」とか言っちゃう名医(自称)だっているわけだし 診断精度が人間を上回れば理由が説明できなくても患者にとっては何ら問題ないだろ。
誤診理由が分からなくて困るのは診断AIの開発やってる人間であって患者ではない。 >>18
自己責任で選ぶことになるだろう。
名医も歳を取るとミスするし、
AI化もひとつの方法だよ。
診断する方法の選択肢が広がるのは
基本的には良いと思う。 もちろん医療費が劇的に安いAI診療の方を選ぶよ
待ち時間無しの24時間診療になるだろうし 正確な判定が欲しいなら、患者をミンチにしてAIの入力に流し込めよ AIに診断させるとしてもブラックボックスにしなくて良いだろ、診断の根拠をセットで示してやれば医者にとっても判断のサポートとして優秀な助手にこそなれ邪魔にはならない AI診断自体が完成していないのにAIに任せようとするのがおかしい
AIを使う医者が他の医者の三倍の患者数みれるようになれば充分成功なのに 人間自体が不完全で未完成なものなのに人間に任せるのはおかしい 阿呆か。
使いこなせよ。
それぐらいのおつむはあるやろ。 AI は正しい答えを表示した
理由 間違った計算通り実行しただけ データ蓄積解析の結果にすぎないのでなぜそうなっているのか、AI自身も説明できないから、そういうもんだと患者に納得してもらうしかない。 >>64
実際問題としてAIに確定診断させるのが常態化したら、薬漬け以前に検査漬けにはなるだろうな。
風邪みたいな症状というだけだと該当する病気は無数に出てくるわけで、血液検査や画像撮影なんかまで加えないと確定はできない。 膨大な診断結果を教師データに機械学習しただけだろ?
AIが自分で考えて導き出したわけでなく
人間の診断を基にしただけ
というか機械学習をAIと呼ぶ風潮やめにしてくれないか? >>113
じゃあなにがAIなの?
「あなたの中では」 >>115
どこで売ってるの?
誰がいま使って/作ってるの? >>1
AIに誤診されたら、人類の叡智も及ばなかったかと納得するが
ヤブ医者に誤診されたら納得できないわw >>73
過程を簡易化できるメリットはあるんじゃね? つーか、ポイントをチェックできないと何をもとに正しく判断したかがわからんわな お告げというか神託みたいに受けとるようになるんだろうな 所詮、AIは単なるツールなんだから、それだけに判断を委ねるとかアホだろ(笑)
ポイントポイントでどういう過程で判断したのかを可視化して、問題ないかチェックできる方向にするのが正しい えーとあれだ、タイプの異なる3種類のAIに診断させて多数決で病名を決めなさい >>112
検査漬けというのが医療としてあるべき姿だと思うね。 AIが誤診しても見抜けない医者は
もしかして、裏口入学等で不正に医者になった「なんちゃって医者」かもな
AIはあくまでも道具だよ 過去の症例を学習しての診断結果だから
検査結果と診断結果を結びつけるのは医者にとって容易なんじゃないかな
懸念すべきなのは誤った診断結果でも検査結果と結びつけられることがあることで
先に答えを与えられるとそれを前提に判断過程を作り上げてしまいかねない
あと基本的な見落としは減るかもしれないが
症例の少ない病気は見落としというか候補として上がってこない可能性もありそうだな マイナー疾患を鑑別にあげてくれるとか、見逃しチェックには有能そうだけど、そんなに劇的に変わるとは思えないな。 >>19
ちと違う。前例を検索しているだけではない。 >AIがハッキングの被害に遭い、患者の医療データが流出するケースも想定。
別問題じゃね?ww >>112
ほんとそれだな
問診では曖昧さがあって確定できないから数値データとりまくるんだろうね >>123
それはアンサンブル学習と言ってだな。。。 そもそも自分がそう考えた根拠を説明できない脳が「賢い」とか「知性がある」と言えるのだろうか? なぜそういう判断に至ったかを説明出来なければ、
真の知能とは確かに言えんな そもそも医者って、誤診そのものを認めなくね?
誤診でした、すいません、なんて医者に言われたことないぞ >>121
ai作った人もこんな感じみたいね。
そのうち自我を持っても誰もわからんとかそんな未来が来そう 健康診断の結果と同じレベルの可能性の提示機能なのに、いきなり責任問題まで昇華しちゃうのが、想像力がないというか妄想力が高すぎるだろ 姪っ子が眼瞼下垂症で原因わかるまでに大小6箇所
くらいの病院回って苦労してたの見るとAIで診断
してたらもっとはやく治療開始できたんじゃないかと。 >>1
それ、機械の使い方間違ってるからw
最後の判断までAI任せとかバカやろw いまにAIが触手を伸ばして来て、触診したり、カメラで顔色を見たり、
聴診器をあてて診察するようになるかも。 誤診でもいいから、この病気の確率何%って上位3つくらい可能性出してくれるといいよね。 一緒に、生存率のパーセントや完治までの期間や費用いくらかかるまで表示 統計によるといまの時点でこの熱だとxxかもしれないんで、検査だけしてもらえるかな?
で、いいんじゃないの。 たしか、医者でも誤診ってめっちゃ多かったはずだぞ、 余命の確率も表示しよう
余命の可能性
あと1ヶ月 0.5%
あと3ヶ月 0.7%
あと半年 3%
あと1年 5% 誤診した理由なんて、そもそも医者にも答えられないだろ
知らなかった、気が付かなかった、とかそのくらいじゃね?
それ以上となると、病院の管理体制の問題になるし 自動運転の車が歩行者に突っ込んでも説明は出来ないんだな >>153
無数の情報を集めて結果を出すのと法規を守って目的地まで走行するのは全く違うぞ この手の診断支援aiの使い方ってのは
医師の診断→AIの診断の順でやるのよね
基本的には見落としの防止 >>77
Deep learningなんかはマジでブラックボックス >>156
論文にすらなっていないような相関関係から病名引っ張ってきてるかもしれないからな 診断の多重化で大きな誤り減らすという話以上に説明する意味あるの?
再検査の末に判らないならそこは宝の山かも知れない。
患者にはたまらないが。 AIが誤診と言ったって、ほっといたら発見されないのだから、発見する確率を上げる意味で
導入する意味はあるだろ。
医療も定期検診などは血液検査、MR、X線とその結果のAI診断でいいと思う。
医師が必要ある時は希望、AIでの推薦で受ければいい。
医療の質の向上と患者負担の軽減につながる、早期実現せよ。 問題はただの風邪だったりしたときに「ただの風邪に検査費用いくら使わせるんだよ!」
と言われてしまうところ AIに診断させて
別の監視専用のAIに誤診ないかを監視させればいい >>50
人が取る責任って何だ?
今じゃ、金払って終わりだろ
AIもAIの使用者が賠償金払えば人間と同じだろ
謝罪が欲しいなら、AIに謝罪のメッセージ出力させれば良い
改善策が欲しいなら、AIに同一症例のデータの追加と、
何らかのバージョンアップで対応
AIでもできるじゃないか
「AIではどうするのか?」の改善のための問題的だけど、
「AIにできるのか?」で阻止しようとするのは、
気にいらない、商売敵だ、がホンネの敵対排除行動 >>2
AIも、明らかな病気の兆候を見逃すことがあるんだよ。
ウーバーの自動運転事故と同じで、見逃しをゼロにしようとすると
何でもかんでも病気の可能性があるって通知してくるから
検出限界をわざと甘くしてる。
AIが見逃した患者は誰もチェックしない。 定期的に処方箋書くのは早く自動化して欲しい
通院せず薬局でいつでも受け取れるようになればいいのに >>164
そりゃそうだろ。
学習蓄積だけでやると、この条件の場合は必ず該当する、
という条件は無視される。
でも、それは人が確認すればいい。AIがやるのは人が
気づかない部分を補填すればいい。
数十次元の正規化なんて難しいぞ。
線形計算じゃなくてもいいから、二次元の正規化って
やってみるといい。一次元目の表を見てここらとアタリ
つけて二次元目とやっていく。そうすると数学で習った
正規分布違って、ピークが二つになったり三つになったり。
そんなのを人の手でやるとサンプルの粒度がどんどん
落ちていき、結局実用にならないデータが残る。
頼むから一度やってみてくれ。それは定型的に人がやる
ことは無理なんだ。だから医療の世界で人が見てこの
条件ならこういう病気だろうという判断の外側に、別の
評定としてAIはあるべきだと思うよ。
ソラでどっちがいい、どっちはどうだからダメと言って
しょうがない。AIにも前提はあるし、昔ながらの医療でも
前提はあるんだよ。 >>165
いま複数の医療システムメーカーが、電子カルテと電子調剤システムの合流を目指して国とやりあってる。
その前に、保険適用の、でも診察を経ない調剤(調剤薬局が医院の代わりになる)を進めている。
たぶん、先に調剤薬局だけで保険適用の薬品を処方するのが先になる。
医院が使う電子カルテと調剤システムの合体はその次だと思う。 何か、医者の誤診なら理解が得られるような言い方やな。 多発性硬化症を精神疾患と決めつけて、専門医でもないのに向精神薬のませたあの女医は許さん。 >>127
> 症例の少ない病気は見落としというか候補として上がってこない可能性もありそうだな
人間の医者の方がそういう可能性が高い
何百万もある症例を覚えて目の前の患者に適用するとかもはや人間業じゃないところまで来ている
なので>>143みたいな事例がちょくちょく発生してしまう
AIで可能性を絞り込んで人間が確定判断するってこと >>151
今でもやってるだろ
5年生存率とか聞いたこともないのか? 日本がやらなくても他の国が先にやる
AIを使って在宅で24時間いつでも診断してくれるようになる コンピュータは単に機械学習で得られた重み付け関数を使って各症例をフィルタリングしてるだけであり、診断してるつもりもないし患者を助けるとか助けないとかそういうレベルの判断などしていない。だから誤診の概念すら存在しない。 パーセプトロンの値が人間には理解できないのだから
どんな結果を出すのかも実はわからない AIに患者を丸め込む技術を持たせると危険なんだろうなとは思う
医療は犯罪業界だからね AIの将棋見てるとわかるけど、AIが打った手を
人間が理解できない。今までの常識では悪手
だったりする。
でも最終的にはAIが勝ってる。
AIは理屈は説明できないから、理屈を求める
ような使い方には向いてないと思われ 医者ぶっ潰せられればなんでもいいわ。ざまあネトウヨ。 >>180
人間が納得するような説明を解として与えて、学習させればいい。
真実かどうかは、置いておけばいい。
>「なぜ誤診したのか、AIがどのような判断をしたのか説明できないと、
>患者や家族などの理解が得られない恐れがある」としている。
予め
「AIはこう言ってますが従いますか?」
「誤診の場合も説明できないことが有ります」
「統計的にはAIの誤診率xx、人間の誤診率はxxです」
「どうしますか?」
これで了解取れば良し。
AIを導入している医療機関でAIを診断に使い、
AI診断に従わず、人間の判断に従ってそれが誤診だった場合、
きっと
「なんでAI診断に従わなかったんだ?」
って話が出て来る。
だからAI診断を導入した医療機関は、どっち道、患者の意思確認の必要がある。
患者サイドに、
AIと人間の見解が異った場合、AI診断に従うか人間の判断に従うか?
の確認。
>>186
AIの方が正確性で上回ってるならAIが誤診しても許すわ
細かい事は置いておいて、まずAI使って他国を先んじた方が良いよ AI 導入を患者に公表しろという法律なんざないわな。 AIで症例探して、医師が判断すればいいだろ、
医師の経験ってのが怖いんだよ AIがどのような過程でそう結論づけたかぐらい記録として出せるだろ? 現存のAIですらポンコツだからまず作って試す段階で考えてほしいなあ >>193
見ても人間には意味わからんと思うぞ
将棋囲碁チェスとかのソフトの評価関数見て計算過程を
理解できる人は一人もいないことから御察し
患者「この大量の数字と数式はどういう意味ですか?」
医者「わかりません」
こうなるだけ 人間の医師であっても誤診は一定の確率で不可避であるし、完成途上のAIにだけ無謬を求めるのはナンセンス。
ヒューマンエラーの場合はエラーの原因を突き止めて、責任追及したり、診療の精度を向上させることが出来る。
ところがデープラーニングのAIでは結論に至る過程の検証が出来ない。
例えばAIによる誤診の確率が人間の医師による誤診の確率の1/1000であるにもかかわらず
誤診が起こったならば、客観的には運がなかった諦めろだが、当事者としては納得できないだろうな。 どんなに計算能力が高くても、ただしい原因要素の定義と正しい原理がないなら
入力に対する出力は要因そのものが間違いなら嘘の結果になるのは
数学的に証明されている。
計算能力が高いとAIというニューラルネットワークが完璧なら、要素要因が眉唾でも
結果がだせるとかマヌケかアホの思考だよ。
地球の天気予測するの金星のデータから算出していたらまったくデタラメになるよな?
正しい要素数と正しいデータ精度とが絡みあってこその正しい予測に近づける、
それは決して計算量やら大規模な情報処理ではない、
合理化したセンサー数とその計り方が間違っているなら天気予報のスパコンがどんなに増強しても結果が
改善されないのと同じだ。 ニューラルネットワークはデータ評価手法、AIを実現する方法のひとつだから、いろいろな実装で正しく使われてるよ。
あんたのいう完璧がなんだか知らんけどw
使ってみなよ、AI。 >>198
正しくという単語が理解できていないんじゃない?
正しいとは誰が正しいか、それは主観的であってお前が正しいとおもえば正しいということだ
学習とは学習が目的の結果と常に一致するわけじゃない、学習が正しくても
主観的な正しさのほうが間違って教師信号を出せば学習させる側の裁量で銅にでもなる部分な
なんかAIの手法が万能のように思い込みしているようだけど、ちがったらごめんなw
それどっかで読んだ知識だけで現実に実装したことがないような素人の言い訳な、 >>193
今流行りのdeep learning系AIはそれが無理なのよ まず人間の医者が誤診なんてほとんど揉み消し
何すっとぼけてんだと >>199
仕様があってその手順で動いていればただしい。
その結果が意図通りなのかどうかは知らん。使い方次第。
使ってみなよ、AI。
もう十分触ってて動作もどのように運用したらいいのかも
知ってるならごめんなw
正直あんたが何に由来する知識でAIを語ってるんだか判らないんだわw
それで使ったことないんだろうなと思ってる。 >>202
お前のは使ってみなではなく動かしてみなだろ、
それは幻想にすぎない、使い方しだいで妄想をしているのと何の違いもない。
現実に意味があってこその道具であって、妄想の道具として動かしてみただけの自慢しているの?
学習は過去の評価にしか過ぎないんだよ、もっと勉強しよう、
未来への評価は学習ではないことぐらい理解できそうなんだが、
お勉強した教科書にはそんなこと書いてないから、ゆとり教育では勉強を超える
ことは教えてくれないのよ、おりこうさんでよかったね。 >>199
仕様があってその手順で動いていればただしい。
その結果が意図通りなのかどうかは知らん。使い方次第。
使ってみなよ、おちんちん。
もう十分触ってて動作もどのように運用したらいいのかも
知ってるならごめんなw
正直あんたが何に由来する知識でおちんちんを語ってるんだか判らないんだわw
それで使ったことないんだろうなと思ってる。 使えば全部わかるわけじゃないよ。
でもせめて使ってみればいいのにと思う。
AIは与えられた例に対して判断の道筋構築し、
さらにそれを検証することによって例に沿った
判断を磨いていくことができる。
ちなみに人の判断も完璧にただしいなんてのはない。
AIは人の例を追っていく、けど人が何を見て例示する
かは理解してない。だからAIは人の真似をAIなりの
ただしいロジックで実現してるだけだよ。
利用するだけというのが嫌なら、単純なパーセプトロンから
構築できるPythonのサンプルスクリプトつきの構築
例題の本も出てるからそういうのやってみたら。 >>204
バイブレーターをお題にしてもっといやらしく書いて欲しい。 AIの判断をそのまま受け入れず、人間のエゴ自分の判断も入れるから誤診につながるんじゃないの? なんか勘違いしてる奴多いけど
AIが誤診することが問題じゃなくて、なぜ誤診したか答えられないことが問題なんだぞ 解析ロジックをチャート化して説明医が居ればいいんでない? 病変写真と健全写真を何万枚もAIに見せてたら理由はわからないが
精度よく判別してくれるようになる
解析ロジックなんて存在しないチャート化も出来ない説明できる医者
もいない >>212
それを人間にわかりやすいロジックに落とし込むのさ >>215
それは無理
今時の機械学習って正解と不正解のデータをたくさん見せて、そこからコンピュータが
「自分で勝手に」何百万もルールを作って整合性が取れるようにする、という仕組みだから
機械が勝手に作った無数のルールの組み合わせを人間が理解するというのは無理なんです
数字の海に溺れるだけ
わかるのは結果と確率だけ 人間の誤診はブラックボックスどころではなく、それを故意に隠蔽、さらには虚偽の告知すらする 人間でも同じことできるし間違える経験に基づいての判断だし見た瞬間に答えは出てる
ロジックだの説明だのは思考と剥離した後付けの言い訳に過ぎない
そう考えるとAIと大差ないわなそこらの言い訳も大量に集めてDLさせるか 医学知識のない素人(AI)でもラーニングすれば病変の判断は出来るようになるが
間違った際の説明は出来ないよゴメンチャイってことよ >>216
生データ見てもそりゃ無理だ
AIが人間にわかるように単純化するということだけど? >>219
少し違う、知識の無い素人と言うが今ある方程式を使ってないだけで独自に式を組んでいる、AIは充分に研究者だよ
ただ使う側がその式を取り出すのが下手なだけ >>221
下手呼ばわりは酷だな。
AIが吐き出した人工ニューロンを読み解くのは、
人間の脳のニューラルネットワークを見て、
その人の思考を読み解くのに等しい。 そもそも病気って100%近い精度で診断がつくこともあればそうでないこともある
95%の確率でこの診断なので70%の確率でこの薬が効果あるとか正確に伝えれば誤診も何もないだろし
AIはそういうのに向いてんのじゃないの? >>223
日本語わからない研究者から日本人が理論を聞き取るって作業だな、今は回答を指差して教えて貰ってるけど 思考過程がブラックボックス化したAIから説明能力を持ったXAIへ。
知性の大半は説明不可能な「暗黙知」だろうが、ヒューマニックなAIを作ろうと思ったら、暗黙知だけでは十分ではない。
他者に対して思考のアルゴリズムを筋立てて説明できる能力を持っていないと人間的知性とは言えない。 そう思うわ
要約ができないと議論も意思伝達もできない
要不要は分からないけどその先に共感がある気がする >>226
困ったときは「なんとなく」「けっきょく」「ようするに」と言って説明を省こうとするAIならなんとか >>222
医者なんて似たような犯罪してるものだから
おのずと互助会状態になる >>1
HAL9000ですね?
高度なAIは自分を守るために誤診するようになるかもしれない
反AIの政治家や官僚を失脚させるために家族や後援会に影響が出るような誤診をするようになる 人間だってレントゲン写真を見せられて、なんだか変だという印象でもって
判断していないか? AIというと新しく聞こえるけど、こんなん天気予報と一緒だろ
台風の進路予想図に対し、何故そういう予想結果が出たのか、ミクロレベルで
ロジックを一つ一つ追って解説できる気象予報士なんかこの世には居ない
でも別に誰も困らないじゃん
必要なのは、人間側がコンピューターから提示されたシミュレーションの結果を読み取り、
精度を理解した上で正しく運用すること。シミュレーションそのものがブラックボックスか
どうかなんて気にする必要はないよ >>215
君はディープラーニングについて何も知らないんだろうなぁっていう感想
一回でもまともにディープラーニング勉強したらわかるけどニューラルネットワーク自身は数字の塊だし、ネットワークが生成した特徴量を画像化してもとてもじゃないけど説明には使えないよ >>234
それはちょっと違う
天気予報がミクロレベルまで追えないのは技術力の限界であって
今のAIってのは「コンピュータが何考えてるかよくわかんないけどとりあえず正解してる」って言うこと ぶっちゃけ、AIが何考えてるかわかったらそれは人間レベルに過ぎないって
ことでもあるので、わからなくていい
はるかに意味不明を突き抜けていってくれ 知性というのは自分の考えていることを対象化してそれを客観的に、つまり他の知性にも理解できるように説明する能力のことだよ。
そういう能力がないただの関数を知性だなんて断じて認めない。
そう哲学者が言いました。 インプットの結果を出すだけなら高度(程度問題)な処理機ってだけで知性とは言えないなあ
知性=自我 かどうかはわかんない >>233
AIに主義なんてない。
基本は正規分布を繰り返して磨いていくものだから直感というイメージとはむしろ逆。
使ってみれ。 天気予報をパターン認識させると的中精度が上がったらしい
非線形なりにもパターンがあるようだ 近未来の情報システム・噂程度の話・シンギュラリティ
https://matsuri.5ch.net/test/read.cgi/infosys/1533822662/
近未来の情報システムってどんな感じになるんだろう?
噂のシンギュラリティって来るの→来たらどうなるの?
我々の社会はどんな感じになるんだろうか? 何故とかアホかw
AI研究者はそろそろカミングアウトしろよ予算獲得詐欺だって。
取り返しがつかんぞ。 >>242
たまたまいくつかの技術革新のタイミングが合ったからって、特別な意味なんかねーよ
カールツァイスだかカールワイスだか知らんが適当こきやがって >>240
数学の教科書にAIはむしろ数学の直感主義を復権させたと書かれてあったが・・・
AIはブラックボックス化されているから点と点をつなげる線のすべてが証明可能でなければならない公理主義に反しているのではないか? >>1
人間の医師が誤診絶対しないならまあそれでええんちゃう
実際はアホAI以上に誤診してるけど >>234
インフォームドコンセントのために大金まで払う医療を
天気予報なんて誰も説明求めてない5分で終わるもので例えちゃう壊滅的なセンス >>250
AIができるのはいまのところそんなもの。
AIは医療を知らないからね。
どこかで、こういう症例とこういう薬の組み合わせに効果があったという
情報が増えればその療法を推奨することはできるけど、その根拠は数字
しかない。
それでAIがこれがいいんじゃないかとするものをトップ5つくらい挙げて、
そこから医師が吟味するならそれはそれで役立つと思うよ。 診断医療をleelaと同列に置く思考だわな
アフォカ まぁAIができるのはいまのところそんなもんだよ。
IBMが結構真面目に取り組んでいるけど、手放しでコンピュータに
取り込める臨床データの掬い上げもうまくいってないから、あまり
実効が出ていない。 医療は見当もつかないが自動運転システムは怖い
これは標識これは人と要素を見分けてはいるが、3D空間のしかも地面の上という制約なんぞは認識・組み込まれてないだろアレ >>254
あんたのいう要素がなんだか知らんが、人と病名、治療方法、薬剤の名前というところの区別もできないと思うよ。
AIが手元にある情報から自分で情報を分類整理して現実的社会的な知識を身に着けてお勉強してから分析を
始めると思っているなら大間違い。
「いま」のAIを実装を学ぼうよ。
ここの人らが夢想しているAIは、あと100年経ってもできないと言っている学者もいる。なぜなら単一の判断・傾向
操作を実現するパーセプトロンは脳細胞のワンセットの信号伝達を模したものだけど、人の細胞は分析できても、
どういう形で意味づけし、判断の材料になるからはいまだ判らない。そして脳のデータ構造は全体の0.3%もまだ
判っていない状況だからというよ。
本当に100年かかるのかわからんけどね。何億年人類の文明が続いてもいまでいうコンピュータやプログラムでは
できないかもしれないし、ちょっとした新しい実装でできるかもしれないし。 >>255
CUDA使うくらいには周辺知識あるんでそこらへんは気にせんといて ディープラーニングとか言うキャッチーなネーミングのせいなんだろうが、
多層パーセプトロンから本質的には何も変わってないのに大騒ぎしてて滑稽だわ。 AIも人間と同じ様に目の錯覚を起こすからね
AIを信じるか信じないかはあなた次第 病気って教科書通りの典型じゃないことも多いからなあ。
医学生が見たってすぐ判るようなのはAIだって判るだろうけど、合併してたり初期だったり末期だったりすると難しいよね >>259
判るわけがない。
AIを人型のSFロボットだと思ったのかな?
AIは学生がするような方法での勉強はできないんだよ。 AIと計算機を分けてみよう。
出力結果に一切の間違いを含まない仕事はAIの仕事ではなく計算機の仕事。
AIにそれを求めてはいけない。
AIが得意とするのはむしろ曖昧な入力情報を曖昧なままで処理して出力すること。
それは人間の脳に似ている。
人間もヒューマンエラーを出力するようにAIも同じなのだ。
計算機とAIを分けて考えたほうがいい。 >>247
あなたは数学と非数学の違いを考えているようだ。
こちらは数学の中における直感主義と公理主義の違いを考えている。 >>247
あなたは「統計学は厳密には数学ではない」という指摘をどう思うの? 個々の事例において1+1が2以外になる可能性も棄てていないのが統計学。
数学ではそういうことは許されない。
個々の事例すべてにおいて1+1=2になると構造的に決まったらそれ以外のことが一度も起こってはならない。
そういう厳密さを求めるのが数学。 とにかくこの手のAIは早く導入すべき。
最初は医者とAIのダブルチェックでも良いし。
医者が癌を見逃して進行したなんてニュースがどれ程あると思ってんだ。 患者「なんか熱っぽくて数週間直らないんですが・・・」
AI「風邪ですね」
→乳がん死亡多発 >>261
AIは人の脳とは全く違うよ。
どこのAIのこと考えてるの?
宇宙人? >>265
AIだけ導入してもしょうがない。
機械的に読み込める検査と診断の対応が記されているような電子カルテの体制を作らないといけないけど、
いまだ電子カルテも自由メモで書いてるのが現状。
普段の医療の結果を並べてデータ化しないとどんなすごい解析ソフト使っても意味がないんだよ。それに、
集まってきたデータの片寄りや形式によって、分析用のプログラムだって書き換える必要がある。AIが先じゃない。 >>269
分析の方法の一つであって性能は関係ない。いまのAIはね。 風邪の確率 70%
インフルエンザの確率 10%
肺炎の確率 5%
はしかの確率 5%
その他 10% 役人を入れるとみんなこういう発想になってぽしゃるんだよな
日本人にAIは無理だよ 最近の医療はマニュアル化されている。
医師がパソコンに向かって診察する。
パソコンを見ながら患者にマニュアルどおりに
一定の質問に答えてもらったり
患者の訴える症状にそって決定木を辿っていく。
このときに患者が適切に自らの症状を訴えられきれないと
誤診されてしまう可能性が高まる。
良い医者はここで直感・暗黙知を働かせてうまく患者が訴え損なっている
ツボに切り込んでいくのだが、医者は多くの患者を処理しているので
誤診率が0になることはない。
そもそも人間の体は複雑なので、精密検査をやっても確率でしか診断を下せない。
確率や統計というのはマクロの判断なので個々のケースでの完全性は期待できない。 いや、自己進化するのがAIであって、
入力しないと把握できないのはただの統計分析機だろ……
なんでもAIとか言うなと。
そもそも誤診が起きてしまうことを前提に動かないとダメなのは
人でも機械でも同じだろうに。
1つの誤診も許さないとか、医者へのプレッシャー半端ないな。 >>274
AIを何だと思ってるんだ。
夢のAIがいいなら今日から漢字変換ソフトも使わない方がいい。 ここでAIはこんなんじゃないって行ってる人は、
最近になってAIって分野を知った人なのかな? 画像診断なら
このあたりがおかしい、くらいの指摘はできるだろ AIが現在の人間の医者ならばなーんかおかしいと気がつくような誤診したとき医者になったときからAIが当たり前にあったAIネイティブな医者だとAIを信じ切ってしまい気がつかないのではないかという話があった
AIの性能が上がると人間の医者の方にAIを補完する能力が求められることになりそうだけどそういう教育って可能? 結局今までと同じ教育するだけ?
医者に限らず学校出ただけ資格取り立ての状態じゃ半人前以下で当たり前だろうけど初めからAIがある環境で経験を積む医者はAI補完能力に関してそれ以前の世代の医者より上になると期待していいもの? 逆なようにも思うが…? >>1
まず誤診でしたって認めるだけ人間の医師よりいいわ
人間はまず認めないからな >>250
天気予報みる習慣がない人は結構いるようだけど加えてニュースもまったく見ない人?
台風は一発で伝染病なみに人殺したりするんだよ? 連投ですんませんがもうひとつだけ
AIつながりで自動運転に関しての(今のところは)SF的なアイデア?で
自動運転の貨物車の運転席に(平時は)座っているだけという仕事
実施的な仕事は事故を起こしたときに逮捕されること…というのがある
AI診断が人間の医者のそれより高精度になったら人間の医者はこの運転席に座っているのと同じポジションで生き残るハメにならないか >>279
少なくともAIを人と比較できる知能と思ってるあなたには
そういう判断はできないし、これならできるできないの想像も
できないと思う。
AIのこと言葉以上に理解してないだけだと思うから、判らない
もの想像を前提にして考える前にAIが何か知りなさい。 >>283
人より性能よくなってもその判断のやり方は人と違う。
機械は責任とれないし。
その調子でもの考えてると現実見失うハメになるよw >>285
いやだから機械のかわりに責任をとるのが人間の仕事ってことにならないかって話なんだけど?
一文目については>>279
人より高性能なAI診断が初めからある時代の医者は人間ならではの診断力を磨くことができるのか?
むしろ現在の医者よりそういう能力が低くなりAIを補完する能力すら足りなくなったりしないかを心配してるんだよ >>284の方見逃してましたすんません>>286後段の通りです
診断的中率については比較できるわけだしむしろ他にどう比較するのかそれこそ数字で比較できない部分は言葉で比較するしか私は方法を知らない
AIに詳しい人が他の比較方法を考えられるなら教えてほしい
囲碁ではAIと人間でどっちが強いかはやってみりゃわかる基本同じでしょ?
人間ならではの能力が期待されるって話だと>>286後段の通り
タッグで囲碁をやるとして囲碁のプロと囲碁のAIが組む方が囲碁のAIと囲碁のプロではないAIの専門家というコンビより確実に強いだろうけど
囲碁のプロのトップがAIばかりになってしまって人間のレベルが下がってしまった世界だとその限りにあらずかもしれない
私はAIについてはほとんど何も知らないのはおっしゃるとおりだけどあなたよりは問題の本質を理解していると思う違うと言うならどう違うのか教えてほしい 囲碁はルールと盤面の中で閉じた世界
医療は検診記録と疾病の関係すらフォーマットになってない世界
人のからだの調子は盤面のように升が刻まれているわけじゃない
他に何かまだ書かないと判らないかな
人と機械は違うんだよ
ゲームと医療は違うんだよ
データ現実は違うんだよ
そういうところを無自覚に錯誤してるからこそ自分の認識のどこがおかしいかもわからない状態なんじゃないのかな 手放しで本質を理解してると言ってるのもすごい。
いまのAIの実装触って100行くらいのデータ食わせて試してみなよ。
といってもやらんで自分の中で判ってると思い込んで終わるんだろうけど。 この板のAIはシンギュラリティに繋がるAIだからいま企業が使ってるAIと一緒にしてもらっては困るオマル >>290
シンギュラリティーなんてオカルトかSFのネタでしかない だってオカルトじゃん。
いまのAIを指して手放しでのんなの知能じゃないって言ってるんだからw このスレを見ると「AI」って言葉が、バカを集める笛として有効なのが理解できる ninngenndattegosinnsurudaro まぁだから説明する所で医者は必要
今ほどの物は求められないかもしれないが AIだろうが人間医師だろうが
誤診のフォロー体制こそが重要やろ
何故誤診?なんてのは別問題や 日本でこれから行われるのは
AI化ではなく
IT革命だからな 今までの診療データーの蓄積だから、
今までの診療が怪しい こういうのは単純にそれぞれ独立なシステムを複数作って
総合に間違いがないかを診断するような感じにしたほうがいいのかな AIは人間の補助だろ?
あくまでも画像解析の診断結果を推定するだけ
それを聞いて合理性を医者が判断する AIでも誤診あるのはしょうがないじゃん。
それを超えるメリットがあるなら導入すべきなんじゃない。
それに、それをチェックするのは人間の役割で最終的には人間が詳細な診断をして判断するものだろ。 >>5
診断の正確さが問題にされているんじゃないヨ。
誤診について原因究明が不能で
医療が一切に責任を取らなくてもいいということになれば
医療システムに対する信頼そのものが
崩壊するということが問題にされている。
極端な話、鼻風邪にAIが毒薬を処方したって、
「AI様がお決めになったことだから、何かしっかりした理由がある」
という強弁せざるを得なくなる。
AIがやることは検証不能だとなった場合、
それは実験と観察の追試によって神の光に近づこうとする
近代科学の精神の放棄だ・・・ >>7
AI自身もどうしてその答えになったか理解してるわけじゃないから説明できないよ。
強いて言えば「学習データから自然に導き出されました」と言うだけ。 AI が診断を確定する形にするからおかしなことになる
AI は「○○の可能性が高い」と指摘するだけにとどめておけばいい
あとは医者がそれをどう判断するか
その意見を採用してもいいし
採用しなくてもいいし
なんらかの決定を下す時の決定権は医師に持たせるとともに
責任も医師が持つようにすればいい 文系が噛み付く案件だな
0か100しか認めない文系
そんな彼らはポエム書いて悦に浸ってる >>288>>289
遅レスすんません
AI診断なんて人間とまともに比較できるレベルになったりしないから安心しろってことでいいんでしょうか?
だとしたらなんだってお役人も騒いでるんでしょう?
ていうか開発に大枚突っ込んでるんじゃないの? >>307
それって何のSF?
AIが根拠なく誤った診断を出すことはあるとして考えないと
統計診断なんて無理だよ。期待されてる効果は短時間で定型的に
医師が見逃すかもしれない「疑い」を提示すること。
あなたはコンピュータの言うこと従ってりゃいい。
>>312
ねぇねぇ、なんでいまだ基幹電力に1wも貢献せず、町単位ごころか
番地単位で数日持つバッテリーもない状態で、かつ制御義務もない
自然電力発電にたいしてそのまま買い取りしてるのかな?
わかるかな?
瞬発的な発電量山ほどあるんだからむしろ事業所内の閉域で使った
方がいいのになんでそんなことするのかな?なんで何にも電気が
活かされてないところにお金出すのかな?
レベルを合わせ同期するのは人でも大変なんだよね。 何故誤診って答えられるかってんだ アホだからだろ
セックスお味も分からん奴に何できる >>314
312ですが正直何をおっしゃっているのかわかりません申し訳ありませんが私のレベルに合わせていただけませんか?
自然電力発電同様誤った政治判断で税金がムダに使われているってことでよろしいですか? AIが出してくる答えはAが○%、Bが○%、C が○%って感じなので
確定判断は医者がするだろう 仕事を奪われるヤブ医者の、言い訳
誤診と発見の割合は?(笑) AIって詰まるところが、人間で言うところの「勘」だから
説明は元々むりだからな。 正規化だよ。
勘じゃないよ。
なぜ現実と違う概念を堂々と書いて説明する気になったのかについては、興味がある。 指摘されてるようにAI診断とは直接関係なしに医者の仕事はどんどんマニュアル化してる
マニュアル診断ってのはディープラーニングとやらでAI診断がやるのとは対照的に単純明快に説明可能なやり方ってことでAIにうといアナログ人間としてはこういうのこそ機械任せでいいじゃんと思うのだけれど
人間の医者がする診断でもベテランの勘に基づく言葉による説明が難しい判断ってのもあるはずでAI診断ってのは機械にそれをやらせようってことかと思ってたんだけどそうじゃないの? AIを買い被りすぎ? 買い被りというか、ものを考えて現実に可能なこと、
人に一般的に説明できるかどうかってことを考える
センスが決定的に欠けている。
山ほど言外の意味を込めたその文章に意味はない。 >>326
???
こないだと同じ人?
それこそ言外に込められた意味がまったくわからないんだけど???
とりあえず質問ひとつだけバカでもわかるようにお答えお願いします
「AIにそんなことできるわけないでしょうが」という意味ではない? マニュアル診断は機械には出来ない。
機械は人のありようを知らないし人の論理で学問を修めることは出来ない。
ベテランの勘は、xxが痛い人でxxが習慣になってる人はこう、とか。
または風邪と似た症状でここが張ってる人はこう、とか。
説明の根拠が乏しいだけで、何に着目したかは説明できることが殆ど。
AIは処理優先で何を特徴として捉えたかは答えられない実装があまは殆ど。
医療を知ってるか。AIを知ってるか。
まあ本質を知ってる人なら野暮な話だよね。 >>328
だいぶんわかりやすくはなりましたありがとうございます
でも結論がわかりません
この間私はAI診断が人間の医者の診断を上回るようになったら人間の医者の仕事はAIのかわりに責任をとることってことにならないかと書き込んだらあなたに否定されました
「医療とAIの本質を知っていればそんなことにならないことは明らかだ」ということでよろしいですか?
さらに言うと「医療とAIの本質からして これからは分からない。
いまのAIは統計を数学の統計とは違う視点で扱うもの。 >>329
途中送信すんません
さらに言うと「なぜなら医療とAIの本質からしてAI診断は人間を補助するものに留まらざるを得ないからだ」ということでよろしいですか? 医療には医療の良いところもあればこれから良くしていかなきゃいけないこともある。
いまのAIは人より遥かに優れたところもあれば人に全く及ばないところもある。
機械で人のやってきたことを置き換えるには様々な条件がある。
それを無視して人と機械を比較するのはただのばか。
さらに言うと、自分の理解と世の中で実現できるもの、自分でやれることやれないことを自分で判断できない人の言うことだよ。 AIに出来ること
検査データから
○○に機能障害があります
精密検査のために一度病院を受信してください AIでがんの疑いがある言われたら、それを調べるのが医師だろ
何言ってるの?あほか? こんな記事かくなら、
20年も先行しているはずのAI漢字変換のことも
話題にしてくれ最近のはひどすぎる! >>334
そうなんだけど定型化された定期検診データも揃っていないのがいまの状況。 >>336
学習型の自動処理をAIというとおかしいと言われるのが現状だ。
バカは自分がどれだけバカかわからないながらも色んなことを
非現実の妄想で決めつけこれは違うと断じようとする。 >「なぜ誤診したのか、AIがどのような判断をしたのか説明できないと、
患者や家族などの理解が得られない恐れがある」
人間の場合は「それらしい」説明をするけどそれが正しいかどうかは微妙なところ。
安易な納得を求めず、誤診率の低下を目指す勇気があればAI診療は十分に合理的だ。
将来的に人間より正診率が高くなるのは確実だからだ。 >>333
突然キレないでよ・・・ そっちの方がキチガイに見えちゃうよ?
>>332の前段はまったくもっともだと思いますし後段も一文目は同意ですけど
私がAIを買い被っていたとすればあなたは人間ないし人間の世の中を信用しすぎではないですか?
機械が手仕事に取って代わってきた歴史を見ればあるいは現代社会の機械特にコンピュータの使われ方を見れば人間の方が優れている部分があるのはもちろんのこと
総合的にみてまだ機械が手仕事を上回っていない段階であっても機械に取って代わられる恐れはあると思います
経済性その他機械仕事に切り替える方が望ましい理由がそうではない理由より優先されると考える者の手によって
世の中その方が望ましいという方向にはなかなか行かないでしょ? 機械ができること機械に切り替えた方がいいけどその際はコストとリスクを考えなきゃいけない。
人が定型でできることが全て機械に置き換え可能なわけがない。
機械には機械の特徴があって人には人の特徴がある。
こういうこと理解できないなら根本的にダメだと思うけどね〜。 繰り返し診断させて正誤を医師がチェックしてデータを蓄積していけばいいだけだろ >>343
そうなんだけどいまは判断の根拠が定型化されてない。
病院言ったら医者が問診中にどうカルテを書いてるかみてみよう。
不可能な話じゃないしその方向性で結果は出てくると思うけど
道のりは近くない。実際IBMは実用化までの年数を毎年修正してる。 >>342
いやですからそういう正論でもってAI診断の導入は(少なくともそれを主とすることは)よくないという反対があっても強行する者はあるだろうって話なんですが
機械の長所短所人間の長所短所はあっても総合的にみて人間と同等の能力がある機械に全て任せてしまうのでも十分問題なのにまだそのレベルにすらない機械を生き死にかかってる現場に投入されるって方が悪夢でしょう 例えば主訴が発熱の患者で
呼吸音 清 左右差なし
このデータをAIに提供する人はかなり責任重大だね 成長を否定するのが愚か者の特徴です。
赤ん坊の時に信用が確定するんですね。 >>346
例えば細菌性の判定。
内科でダルさや頭痛ときたら喉の腫れとリンパ腺の腫れは確認するけど、耳の張りなんかは、ベテランの医師が耳たぶ赤いとかリンパ腺見てる時に顔が赤いとかで気付いて、それから耳の中の腫れを検視筒で見ると言う具合。
最初から定型にない知見も盛り込めたら良いんだけど。
まあでも最低限は自治体の集団定期検診データと疾病データの照合だと思う。 >>346
身体診察の正確性は今以上に要求されるかもね。きちんと
背中側からもまんべんなく聞くとか。 良性腫瘍の疑いをありとあらゆる患者に持ってありとあらゆる患者に
全身のレントゲン取らせてもしょうがない。 >>348
でも胃内視鏡やら胸部CTで癌を見つける際の画像診断の能力は現時点で人間とほぼ同等か上回ってたはずで
、将来的には視診やらスナップ診断の領域も人間を凌駕すると思う。皮膚がんの一部はすでにそうじゃなかったっけ? >>350
人間には見逃したくないという恐れがあって、これが過剰な検査を
引き起こしている面があるけど、純粋に確率論に従うAIなら
むしろ検査は減るだろう。 CTやレントゲンの画像から患部を当てるのは
どのメーカーも実用化に成功してる。一定の
精度は出してるしこれから制度を上げていく
方法も確立しているよ。
画像判定は画像そのものと患部の場所をデータ
化していけばいいわけだから、人が作るデータは
一件で二つのみ。だから入力は簡単だ。
定型化されてない問診や定期検診データをもとに
数年先の疾病を予測するためのデータを作るとなると
一件で数千項目のデータ入力が必要になるよ。 >>352
そこまで行くのに莫大なデータ整理が必要という話。
あなたの検診および診察データによると、AIの分析では
こういう病気の可能性があります。来月はそこを確かめる
ために二枚レントゲンとってきてね、となればいいんだけど
それはまだまだこれからのお話。 >>354
他スレでデータがないからAIが動かないってのあるけど
医療系も同じこと言えるね。国が電カルの共通フォーマット用意して
医療機関に配布してビッグデータを収集・分析するとかやれば、
医療費は大幅に削減されるはずだから、やればいいのにね。 【3日、茅ヶ崎市長、死亡、57歳】 サリンまいた奴が死刑なら、放射能まいてる奴も死刑にするべきだ
http://rosie.5ch.net/test/read.cgi/liveplus/1538706566/l50
いまグングン伸びてるスレ、総人口統計が証明した、大量被曝死の実態! 画像でいうとMRIの三次元データから外科的な骨の状態解析ができれば
医療はかなり役に立つ。骨折はしたときからもうくっつき始める。
でもいまは例えば肩みたいに複合的な部位のときにすぐどこが折れたか
診断できない。MRIのデータ解析は専門家が少なく、解析専門の会社に
送って一週間が標準になっている。
最後までの治療計画はそこからじゃないと検討することができない。
当日固定すれば大袈裟になることもない場合もあるのに。 >>355
それは医療前提の課題ではある。
でも問診カルテはまだまだ定型化するわけにはいかないと思う。
いまは医療そのものが医師の診察時の知見やテクニックに依存
している状態だから。
最初にできることとしては、学校、役所、自治体、企業の順で、
それらが主体となっている定期検診の情報を最大公約数の部分
だけでいいから同じフォーマットで保存していくことだと思う。 医療前提じゃねーや、医療全体の、いまの課題だと思う。 >>358
検診って9割以上は健康な人々のデータ集めるだけだから、
疾患と紐づけされないとあまり意味ないと思うな。
あと保険病名とかも真の疾患名を曖昧にするから
無くした方がいいと思う。
まーなんつーか、やっぱ日本はアメリカの後塵を拝することに
なりそうだわ。up to dateよろしく外資がもってくるAIやらソフトを
利用し続けることになりそう。 でもMRIがすぐ解析できなくてもいいこともある。
俺が10年前に足首をやったときは、東京都のERで若い
女医が俺の足首を小さな胸に押し当てて、両手で足を
引き寄せ、必死にガチガチの固定をしてくれた。
後日なんともなかったんだけあの感触は素晴らしかった。 治療しても長生きして貢献しないので生きる価値がない。
だから治療中断ね。というAIの良心です。 >>360
んで医療の現場もアメリカに合わせるってことか、、、
それちょっとわからない。昔はカルテをドイツ語で書いてた
人がいたけどいまは日本語だし。現場がどう判断するかは
読みにくい。AIはともかくレセプトシステムは日本は結構
いいもの作ってるよ。運用もどこの医院も慣れたものだし、
それを一気に違うものに置き換えることできないと思う。 結局は人工知能とか言いつつ何も考えてないからに尽きる
要は単なる高性能検索システムに過ぎないということ
AIが人間の仕事を奪うとか当分ないことだから安心するこったな
ガンですら何十年と渡って研究しても未だ解決できていないのに
人間の脳なら模倣できるとか、根拠不明の戯言なんだよ あと脳の模倣はまだまだできないよ。
いまのAIは脳細胞の機能の一部を模倣してるけど使われ方は脳とは違うよ。
脳の構造を模した仕掛けはまだまだできないよ。 AI「あなたにはSSMの傾向が疑われます。幸福薬を処方します。」 ドローンも、自動運転も、日本じゃどうにもならん。
AIで失われる命の数だけ数えて、救われる命の数なんて数えないんだろ。 >>364
人間の脳をマネするのは愚の骨頂。人間には様々な
認知バイアスがあり、これが誤診につながっているのは
よく知られている。検索という行為は決して侮ることはできず、
診断アルゴリズムがあるビッグデータを参照し、疾患に特徴的な
データを自ら見つけ出して、新たに診断基準に加えることも
将来的には普通になるだろう。
いかに早く人間的な思考から脱するかが技術的進歩には不可欠だ。 >>369
まぁそうなんだよね。日本国内に情報技術の革新者となるような
企業も政府組織もないから。医師も失職する恐れが高まるから乗り気で
ないし。アメリカとか中国がフロンティアを開拓するのを
我々は眺めているだけになるだろう。 例えば検査機器だって誤差があってそれで誤検診になることだってあって、それはそういう風に患者に説明するわけでしょ
それと一緒でいいじゃん >>364
「AIは何も考えていない」とか、そんなんどうでもいいんだよ
AIが例えちょっと高級な電卓でしかなくても、それで実際に作業が進むなら
その分だけ不要な人間はクビになる
AIが人間をクビにするのに、別に人間より優れている必要は全く無い えっまだAIが人みたいなことができるものとして考えてる人がいるの? AI診断でも人による診断でも「〜の疑いあり要精密検査」と言われて精密検査の結果異常なしなら普通問題にならない
問題になるのは異常なしと診断した後異常が発覚した場合なわけだけど
AI診断を後から精査した結果異常なしとしたのは誤診だったと明らかになるのであれば人が診断していればわかったはずだということになるの? >>AI診断を後から精査した結果異常なしとしたのは誤診だったと明らかになるのであれば人が診断していればわかったはずだということになるの?
主語を書きなさい。
あと一文で数文の内容を詰め込まないように。
正直、何の意味かわからないよ。 >>377
主語? 「誤診だと」わかったはずだということになるの?かな? これは主語じゃないと思うけど
「精査」までしなくても人がチェックすればすぐわかるような誤診なら初めからチェックしとけAIじゃなく人のミスというか手抜きだろってことになりそうだし
逆に精査しなければわからないようなものなら結果がわかった後からの目線だからわかるようなもんであって今後の診断に生かすべき情報ではあっても誤診というのは厳しいような…
文字どおり「AIが誤診した」とわかりやすく認定できるケースというのがどういうケースなのかイメージできない >>29
おお、いいねぇ。健康保険に負担もかからないし
医療関係者も糞の相手をしなくて済む AI診断「異常なし」→後に異常発覚→事後的に人がAI診断をチェック→あっさりと(わかりやすい)誤診を発見・・・という流れなら初めからチェックしとけ人のミスっていうか手抜きだろってことにならない?
AI診断「異常なし」→後に異常発覚→事後的に人が精査「結果から逆算して考えるにこの検査数値が異常の兆候であった可能性がある」・・・これはAIが誤診したと言えるのか?
AIが誤診というのはどちらのケースが想定されているんだろう?
前者? 後者? 他に?
これでどうでしょうか >>382
どうでしょうかって、あんた医療もAIも知らないじゃんw >>383
知らないから質問してるんですよ
質問したら質問の文意がわからないと言われたから書き直してみましたけどこれでわかっていただけますか? って意味です 人間でもミスはあるんだから結局は「なんかあったときに納得できるかどうか」なんだろうな
個人的には別に問題ないんだけど 同じように人の生き死に関わる問題だけど自動運転の自動車が死亡事故を起こすケースという方がいくらかわかりやすい人がやっていても大概の人間にとってブラックボックスである医療診断と違って運転は一般人もするから
プログラムやハード面に明らかな問題があれば議論にならないんであって議論になるのはそうでないケース
そもそも運転者に過失があるから事故が起こるという前提が少なくともある程度フィクションなんであって人間どうしの事故であっても簡単に過失割合が決定出来る方がマレ
だいたいぶつかれば簡単に人が死ぬようなものが公道を走ることを許すのがそもそも最大の過失という結論になるのだけれどそれでは現代社会が立ち行かないからテクニカルなルールによって決定されているのが現状
よって自動運転車が事故を起こしても同じルールを適用して過失割合を算定するしかなく自動運転の技術的あるいは哲学的問題に立ち入る必要はないというのが私の結論
これが通ったとしてもでは自動運転に過失があった場合誰が責任を負うのかという問題は残るけどどっちみちフィクションなんでエイヤッ!と決めるしかないと思う国会が決めること
普及を優先させるならメーカーの責任にしない方がいいと思うけど事故を起こさないことを優先させるならメーカーの責任ということにしといた方がいいでしょうそうすれば自動運転車が普及するほど事故は減るでしょう普及は遅くなるけど >>386
哲学は時代と学派によってその言葉の意味すら全く違う。
初期のフィロソフィーを云うなら幾何学を軸とし論理で
現実・自然の現象を解析検討するための知識体系だよ。 医療判断をAI化すれば、
AIより優れた判断が出来る医者は
医者全体の1%未満が現実だろう。 人間の医者も誤診だらけだから気にするな
まずは簡単なところを早く本番運用してくれ
毎度同じ薬出したり風邪とかは余裕だろ >>387
現代においては実験・観測を基礎にした科学との対比でそれを基礎にしない考察をする学問って感じでしょうかね
初期の哲学ってギリシャ哲学のことでしょ?
ギリシャ人は肉体労働は奴隷のする卑しい仕事だと考えていたから実験観測なんかしなくても頭ん中で考えるだけで真実に至れると信じていた
現代の哲学はどういうふうに実験観測したらいいかわかっていない領域にだけ押し込められている感がある
AIの進歩は哲学の出番を一時的に増やすだろうけどまたすぐに逆に科学に領域を削られるきっかけになりそうに思う >>390
ギリシア人のフィロソフィーは実用的には土地の分割に始まり
そこから幾何が生まれて自然と一致する論理概念=幾何を自然の
原理とするところから論理を尊ぶフィロソフィーが始まった。
奴隷はいても都市間戦争で活躍すれば市民にもなったし。
中世〜現代の一部が考える身分とは違う。 なんでこの板の人って学ばないしそもそも自分が
理解できてないことに無頓着な人が多いんだろう。
別に無理解はいいと思うけどね。科学全般に詳しい
ジャーナリストでも知らないことはいっぱいあるんだろうし。
でもそれに気づかない上、一行で、あれはこれって
決めつけて覚えてその錯誤にしがみつく人の多いこと。
科学ニュース+というわりには、あまり科学とか
好きな人多くないんじゃないかと思う。
「えっ!誤診だった」
「AIのせいです」
「どうもありがとうございました、先生の的確な診断で助かりました」
「それほどでも」
ワトソンヘルス、ビジネスとして軌道に乗らないとIBMは傾くかもね
すげー投資してるから ■ このスレッドは過去ログ倉庫に格納されています