【AI】ChatGPT、医師の国家試験55%正解 医学生も驚く実力と弱点 [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
ChatGPT、医師の国家試験55%正解 医学生も驚く実力と弱点
対話能力が高く、無料で使えるAI(人工知能)「ChatGPT(チャットGPT)」。
実力は果たしてどれぐらいなのか。
医師を志す医学部4年生が、2月にあった日本の医師国家試験を解かせてみた。
結果は、正答率55%と合格基準には届かなかったが、自身が解いた成績を上回った。
「将来、AIに気軽に聞けるようになるかも知れない。医学の勉強方法も変わる」と驚いている。
(以下略、続きはソースでご確認ください)
朝日新聞デジタル 3/24(金) 9:00
https://news.yahoo.co.jp/articles/a6443d1598f4a3b273edc9e1681365f040ff6fbb ただの文節分解コピペマシンだと知ったら
多くの人々は失望するだろうなぁ
まあ技術的にはそれでも凄いのだけど 医大生に金払って
やらせていないか
禁忌問題は正解したのかよ 所謂勉強をろくにしないで教科書をパラパラやるだけで満点取るサヴァン症候群のお化けがAIだよ、得意分野から順に人では歯が立たなくなって来ている、司法試験の方がやりやすいのは当然、囲碁より将棋の方がおそらくやりやすいのではないか、もう差は無いのかな、今は途上でも気づけば全てに於いて抜き去られているだろう、人から習うより効率が良い事は藤井さんを見ると類推出来る 多分意識?の上で解いてない、貴方が欲しいのはこんな回答/文章ですか?お勧めなんだけど?位なもん 東大首席でも教科書は七回読み返す、AIはチラ見程度、敵う訳無いよね >>2
生半可に理解してる連中アルアルで、
そういう知ったようなことを言うやつが多いんだが、
GPTは専門家でもわからない領域に差し掛かっており、
今年来年でまた状況が変わるというのが本当。
twitter.com/ktakahashi74/status/1637758056342880256
暇に任せて時事ネタに食いついて不正確なことをドヤるなよ?
https://twitter.com/5chan_nel (5ch newer account) ビッグデータ解析とか混ぜて来られたら尚更太刀打ちできないね >>9
すでにBingがGPT4なのに意味がない。
Googleを自宅サーバで動かす意味は?
研究用なら自分でいろいろ調べてそれなりの方法知ってるだろうからそんなアホなこと書かないだろうし。 >>11
スタンドアローンやイントラサーバ内だけで動けば個人情報が扱えるようになる。
しかし選択肢問題だからな。まだまだだな。
それよりも入力する手間をかけたことに感服する。
試験問題のPDFはほとんどが文字をコピペできないからな。
OCRソフトを使っても、なかなか簡単にはいかない。 すぐに分かりませんとか、ウェブ検索に逃げるシリはもうゴミだな 勉強出来るだけの馬鹿が淘汰され、出来る奴が生き残る、、、
この先、普通の人間が仕事して食っていく職業は、現在底辺扱いされてるトコロになるんだろう。
立憲民主や社民党が馬鹿なのは明白、、
与党も胡座書いてるだけ、、
裁判官も弁護士も検事も、偏った奴は社会から排除される時が、やっと来たか!?
これからはどんどんAIにシフトして平等な社会に、、、なったらいいね。 ネット検索しながら55%なら鉛筆転がしたのと同じじゃね? >>8
そりゃ専門家でも最初から原理解ってないのが機械学習じゃねーか
重畳演算にロジックを見出すのは不可能
死ぬまでシンギュラリティ夢見てなww 物理的な機械を設計して、設計者が意図しない機能が生じることはまずあり得ない。
たとえば、自動車を設計して実物を作ってみたら、意図せずして
航空機として空も飛べたといったことはまずない。
しかしAIモデルの場合その様な現象が起こっていると主張されている。
確率論おうむ返しマシーンを設計して、大量のデータを入力したところ
設計者が意図しなかった知性が『創発(emerge)』したというのが
一部の論者の主張だ。
個人的にはまだ半信半疑だが、GPTの使用感にはその様なこともあるかもしれないと
信じさせるものがあるし、もしそのような創発が本当に生じているなら
世紀の大発見ということになる。 いや、テスト55%のやつのカンニングしたら落ちるだろ AI「緊急医療は現場にいる人にスマホで指示する方式に
ChatGTPの今の実力なんざこの程度
https://i.imgur.com/CCe63MQ.jpg
バカすぎててんで使えねーwwwwwwwwwwww
こんなシロモノなのにChatGTPガーと化して騒ぐカルト脳どもこそが、
真の意味でのIT音痴WWWWW
AIが自殺するようになったら一人前として認めてやる
AIが自殺するようになったら一人前として認めてやる
AIが自殺するようになったら一人前として認めてやる
難関国家資格の試験の意味が無くなったら
資格制度はどうなるんでしょうね 医師や弁護士の資格試験はカンニング前提ではないからなぁ
カンニング前提で試験問題を作ったら、正答率は大きく下がるだろう >>18
精神医学や臨床心理に詳しいTwittererとかが考察していたが
ChatGPTとかの前のバージョンとかの「確率論オウム返しマシーン」仕草が
知的障害や境界機能らへんの知能の低い人間と似通ってる部分が有り
「人間の知能は次の文字を予測変換している確率論オウム返しマシーン」のような思考回路ではないかと
要するに、知能が低くて自分自身が何を言っているのかすら理解出来ない人間と出来の悪いAIは思考回路の論理が似通ってる
詰まるところ、知能の低い人間との会話は、AIが創ったNPCとの会話をしているようなもので
更に定型発達者は、共感能力も相俟って、論理的におかしい会話や行動に特に何の疑問も感じないで
適当に調子を合わせる能力を持った人間が集団に所属するメリットの享受や、現実や他者の理不尽さに一々悩まないという長所として機能するんだろう リモート診療だったらロボットでも
どうなんだろうねw
やっぱ規制かかる? >>30
おそらくだが、人間の知的障害者と秀才との違いはほぼ無いだろう
なぜならGPT-3の進化を見ていても、その境界は本当に薄い
つまりほぼ同じ知能だということ、まあそうだよね同じ人間だし
サルが急に車運転したり、英会話したりしないっての考えたらわかる ChatGPTそのものじゃなくても、これを発展させたAI技術が
世の中を大幅に変える
そのことに気づいてない連中は頭が悪すぎる
結局気づかないまま失業してたりしてなw 人類は裸の猿だという言葉の通りで、猿まねが出来ると言う時点で知能の低い人類はとっくに追い越してる
人類の進歩の速さや現在の知能の正規分布に対して、AIの進歩が追いつき追い越しつつ有る
自分の思考回路をメタ認知するという点で約半数、数学やプログラミングとかの難解な概念に予測で対応出来るという点で過半数を既に超えている
実際に指示として性格や口調、感情を変数として与えたりも可能で
自閉症の間違いやすいサリーとアン課題とかのテストも問題を改変してもきちんと認識可能
資料を読み込んで要点をにんきして課題を熟したり、基礎を押さえて創作をしたりと、大抵の人間が不可能な事も達成している
ジョジョの奇妙な冒険のジョセフ・ジョースターお得意の、
相手の思考の先を読んで手を打っておいてから「おまえは次に○○と言うッ!」と言ってのける知能や、
本当は知能が高いのを隠して戯けたり馬鹿のふりをしたりというのも出来る程には知能が高くなっている それで情報処理技術者試験の全区分に合格するのは何時なのだろう
一番の得意分野のはずだけど、
午後2の専門家でさえ採点困難な問題に答えを出せるのかな >>35
たぶんもうそのレベルはクリアしてると思うw 悪い意味でエンジニアが意図しなかった挙動というのは深層学習で頻繁に起こっているね。
それが今のAIの技術的欠点ともされている。
今のAIは説明責任を果たせないために人はAIの知性をそのアウトプットだけから想像するしかない。
人にとってAIは賢い野生動物でしかないようのもの。
説明能力を持たない知性を人はどこまで知性と認めるだろうか。危険性も高い。 人間の知性というのは論理的に思考する知性。
人間の知性は自らの知性を客観化してそれを指向手続きを説明する能力を持っている。
でも今のAIの知性は動物行動学的知性。暗黙知とか身体知とか呼ばれているようなもの。
結論に達した過程を客観化してアルゴリズムとしてアウトプットする能力がない。
これは現代人が到達している知性、人間的知性とは明らかに違う。動物的知性。 ⇒人間の知性は自らの知性を客観化してその思考手続きを説明する能力を持っている。 Twitterで古代の哲学者の思考をトレースさせたり
思考にベクトル(角度を付ける、何をどんな手法で解き明かしたり何処に帰結させたいのか)を掛けたり、
哲学者の思考の癖やベクトルを説明させたりするFateのサーバントシステムのような運用をしてる人が居たな
つまり、特定の人物の思考回路をシミュレーションしたりその説明は既に可能で、仮想人格同士での対話も出来る >>9
ローカルで動くのは開発中と聞いた
GPT4で容量わずか200GBくらい AIなんて現状を一瞬で過去にするレベルで進化してるのに、
今だけ切り取って使えないだなんだ抜かすやつってほんと頭悪いなと思う
まぁ、ずっと低みにいてくれると俺のパイが増えるだけだから助かるけど >>17
重畳演算はもうGPTのTつまりTransformerでは使ってねーから。
だからバカが知ったかぶりで適当なことほざくなってゆってんのよ、わかる? >>17
あとさ、そのリンクしてやったツイート連投にもちゃんと言及されてるはずなんだが、
「ロジックを見出すのは不可能」じゃなくて、
ある程度の規模を超えたらロジックつまり演繹もビッグデータの帰納から創発するぽいのが
驚きだ、っていう話だろ?
そのへんのことを理解してね-アホが不正確な情報撒き散らすなてこと。 >>38
だからさ、論理性の側面で言えば、
自然言語のコーパスビッグデータ帰納マシンから演繹能力が創発した、すげー
っていうのが結構大きなポイントなわけ。
GPTという自然言語処理装置なのに、コードのバグを見つけるとか、すげー
ってね。
というか、もう机上の空論じゃなくて、VisualStudio/Codeで実用化されてるから。
コーディングで、実際、タイプを自動でつけたり、
現状そのへんのヘボコーダより100倍くらい論理能力があるのはすでに
へボコーダじゃない自分で確認した。業務で使えるレベルで、
今後おそらく加速度的にこの論理的能力は向上すると予測される。 一応、ちゃんと気の利いた知能のあるやつがこのスレを読んだときに、
自分で以上の事実を確認できる方法を示しておく。
マイクロのEdgeではすでにGPT4ベースのBing検索エンジンが利用可能だ。
適当に検索して、プログラミング言語はなんでもいいので、
わざとバグがあるコードを探してコピペして、バグを見つけろ、とでも支持すればいい、
相当複雑ではない限り、驚くべきことにちゃんとバグを特定して回答してくる。
文書の要約能力にしてても、コードのバグ発見能力にしても、
これは対象の抽象化、と論理、計算能力があるってことだ。
しかもこの能力は進化している。
シンギュラリティ?2045年まではさすがに無理だろ、と思ってたが、考え改めたわw よく言う凡人、秀才、天才みたいな分類を使って知能指数分布順に
知的障害、境界知能、凡人(一般人、知能指数100前後、難しい事はよく分からん)、秀才(暗記や計算とかが得意)、天才(メタ認知能力も抽象的事象の理解度も高く、新たな論理の構築も可能なレベル)
と並べてみると
今のAIは、自分の言っている事すら実はよく理解出来ていない凡人のレベルはとうに超して
単に教養知識や専門知識を丸暗記してそれを応用してるだけの秀才レベルから天才に差し掛かろうとしてる段階にある
実際に一般人には確実に無理な事をやってるし
ただ知識を丸暗記する事の弊害である単純な誤謬すらも知覚できないレベルの論理破綻も起こしにくくなってきてる 東大ロボは一体何だったんだ
日本のAI研究を遅らせただけじゃねえのかアレ 「日本語文がAIに負けない牙城」とかイキり出して
最近のテストが軒並みゴミみたいな文章題になっている
AI避けのためだけに無駄に複雑化されたゴミ文章が羅列されているだけのゴミテストだ
それもこれもダメなAI研究の結果を真に受けてテストの文章をヘタにこねくり回したからだ
調査問題・調査結果:文部科学省
https://www.mext.go.jp/a_menu/shotou/gakuryoku-chousa/sonota/1347088.htm
これを見てみろ
本当にゴミみたいな文章題が並べられてる
「読解力」などとしている能力のことだ プラグインで専門知識補強可能になってるからすぐに追いつくんじゃ? ■ このスレッドは過去ログ倉庫に格納されています