【AI】生成AI、児童ポルノ画像を学習か…専門家「被害者の人権侵害恐れ」 [すらいむ★]
生成AI、児童ポルノ画像を学習か…専門家「被害者の人権侵害恐れ」
画像生成AI(人工知能)の精度を上げるための学習に使われる膨大な画像データの中に、国立国会図書館が「違法な児童ポルノの恐れがある」として閲覧を禁じた写真集の一部が含まれていることがわかった。
データの中にはほかにも児童の裸の画像が複数あった。
ネットから収集する過程で紛れ込んだとみられる。
学習する際、違法画像を取り除くフィルター機能があるが、排除しきれていないという。
(以下略、続きはソースでご確認ください)
読売新聞オンライン 3/21(木) 5:02
https://news.yahoo.co.jp/articles/5b865b4aa30e6a751ab4c95ebf2a093ae135fd1c サウジアラビアだったら?
イランだったら?
北朝鮮だったら?
日本だったら?
こんなものは世界で使われるものじゃなくなる ツイッターで見かける生成AI使ってるヤツまじでキチガイばっかりで、さっさとこいつらから取り上げた方が人類のためじゃね?ってなるわ そもそも裸なだけでポルノ扱いしてるのが異常なのでは
文化風習を無視して人類全員服を着ろというのは一種のモラハラだからな 参考画像にまで文句を言うとか
言いがかりも甚だしい もうすぐ犬に服を着せずに散歩させたら虐待になりそうだな 現実の被害者なんていないただの絵なんだから
そんな大騒ぎすることないのでは? 最近、麻呂のAA見ないなぁ・・
このスレなんて最適なのに。。 違法な画像を学習に利用してしまっているという話だから
問題あるぞ まず違法画像かどうかを判断する能力を持たせたAIを作成し、そのフィルタAIを通じて学習させるといいのではないか。 チャット系だと学習した上政治や差別のNGなトピックを避けるファインチューニングしてるじゃん
絵や音楽はなぜか学習そのものを禁止しろっつーけどさ
学習さえさせなければAIなんぞがたまたま似た感じの作品作る事など絶対あり得ないとでもうぬぼれてんのかね AI補正した奴を無修正って表示すんなよ景表法違反やで 自称専門家の意見はどうでもいいよ
学習に法的制限がないのはれっきとした事実 浮世絵を学習させて現代の浮世絵師を作ろうとしたら、どうなるのかなぁ。 生成AIで作られた児童の性的画像が国内サイトに流布、日本は規制緩く…東京で4月9日にシンポジウム
https://news.yahoo.co.jp/articles/32c39175d032e39482b6bb48a1508bd83822ef35
参加は無料。午後2時から。定員80人(先着順)で、オンラインでも見られる。申し込みは4月5日までに、NGOのホームページから。 >>26
それは既にアールヌーヴォー、アールデコで実施済 そのネット上で公開されていたデータセットについて詳しく 以前、GPT3に「おまえんとこのdalle3の学習データのなかに女性の裸体画像が入ってるようだが、なんで?」って聞いたら、「不適切な画像とそうでない画像を判別するために、不適切な画像のデータも保有してます」って答えをよこしたよ。
数カ月後、進化したGPT4に同じ質問をぶつけたら「そんなもの絶対に入っていません!」ってとぼけやがった。しつこく聞いたら「そんな画像が保持されていても私の責任じゃない、使う側見る側の責任だ」って言い出してたわw 個別に警察が取り締まる案件に過ぎないのになんで図書館が騒いでんの?バカなのかな
それが企業レベルか個人レベルかまで同様 よろしくない画像が大量に流布されるのを危惧する気持ちは分かるけど、これを規制するための権利を誰かが持つと、AI関連の権利まで拡大しようとするから良くない
既存の法律で対応できる部分は法律に任せないと ウィキペディアをウソ情報「毒」で汚染すると…生成AIはウソを学習、偽情報をアウトプット
https://www.yomiuri.co.jp/national/20240326-OYT1T50010/
嘘の画像を憶えさせたら、外科医がGPTの指示を仰ぎながら間違った臓器を摘出しちゃいそうだな。 >>19
学習を阻止するとそれ以降の生成物が陳腐化するのは確かだぞ