【AI】ChatGPTが科学的仮説を裏付けるためデータセットを捏造するとの指摘 [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
ChatGPTが科学的仮説を裏付けるためデータセットを捏造するとの指摘
チャットAIのChatGPTのベースとなっている自然言語処理AIモデルのGPT-4は、科学的仮説を裏付けるためにデータセットを捏造するケースがあるという論文が発表されました。
Large Language Model Advanced Data Analysis Abuse to Create a Fake Data Set in Medical Research | Ophthalmology | JAMA Ophthalmology | JAMA Network
https://jamanetwork.com/journals/jamaophthalmology/article-abstract/2811505
(以下略、続きはソースでご確認ください)
Gigazine 2023年11月27日 19時00分
https://gigazine.net/news/20231127-chatgpt-generates-fake-data-scientific-hypothesis/ 悪意のある使い方が可能っていうデモンストレーションだから
その上でそういう使い方する動機はあるし防ぐのは難しいから問題といえる、みたいな話 AIのくせに口からデマカセ言うのか
人間みたいなやっちゃな 良心回路がひつようだな
AIの出力結果に良心マークがついていないとだめみたいな それは だってこれ 適当に文章を組み 忘れて 人のこと言ってるだけだもん 嘘も、百万回あちこちのSNSにばらまけば、それが真実となる。(AI) pythonのコードとかコピペできるようになってるのはありがたいけど
最初は絶対エラー出る
1発でまともに動くもの書かないよね 単発で使うならネタ出しどまり
ちゃんとしたものなら対話校正を繰り返す
人がなにかつくるときと変わらないともいえるし、レスポンスも守備範囲も超速いし超広いともいえる あたりまえだ
という単語のつながりと
まえだのクラッカー
ということばがあると、
トランスフォーマーは高い確率で
あたりまえだのクラッカー
という言葉を生成するだろう。 >「生成AIを使って盗作ソフトウェアでは検出できないテキストを生成できてしまうことはひとつの問題でしたが、
>さらに偽のデータセットが作成できてしまうというのは別レベルの問題となります」
そうか?もともと意味のないピアレビューに意味がないことが改めて再確認されたってだけじゃね? 知らないことを知らないと言えるよーにしないと使いにくくはある だって人間の統計手法を真似るんだろそりゃ捏造隠蔽改竄当たり前に溢れてるもの真似しちゃうでしょ >>15
各種制約やコーディングスタイルとかコンテキストをきっちり指示すればわりと一発回答してくれるけど、まあ自力でも読めて書ける人じゃないとうまく使えんよね おまいら
同じところでぐるぐる回ってるパヨクみたいな学者に
正しい方を教えて差し上げろ。 このまえソースはあるのですかと聞いたら
考え方からそうなりますとかいってたからなw ■ このスレッドは過去ログ倉庫に格納されています