【AI】生成AIの学習データに児童虐待画像 米大学研究者が指摘 [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
生成AIの学習データに児童虐待画像 米大学研究者が指摘
米スタンフォード大の研究者は20日、画像生成AI(人工知能)の学習用データセット「LAION(ライオン)5B」が1000件以上の児童の性的虐待画像を含んでいたと発表した。
多くの画像生成AIが同データを使って学習しており、不適切な画像を生成する恐れがあると警告している。
ライオン5Bはインターネット上の50億枚以上の画像のURL(アドレス)を集約したデータセットだ。
報告書を発表したスタンフォード大インターネット観測所の研究者のデビッド・ティール氏によると、児童の性的虐待画像のURLがこれまで1008件見つかり、疑いが強いURLも含めると3226件あった。
(以下略、続きはソースでご確認ください)
日本経済新聞 2023年12月21日 12:15
https://www.nikkei.com/article/DGXZQOGN20F220Q3A221C2000000/ 反AIを掲げ、超大企業や新進気鋭のベンチャー企業相手に果敢に戦った
一部の絵師や創作者達によるネオ・ラッダイト運動とも呼ばれる運動では
AIのデータセットに無断学習される著作物や海賊版データが多数含まれている事は、明確な人権侵害であり倫理や道徳に反する
児童の性的虐待画像が含まれておりこれは明確な犯罪行為であり、そのデータセットから演算された学習データは即ち違法データに基づくものである
AIは人間の脳のように学習や創作等と言った高等な行為は行っておらず、著作物のサインがそのまま生成されるなど単に抽出されたデータの統計的な切り貼りに過ぎない
更に、AIにより本物の児童の性的虐待画像が生成物に埋もれたり、生成物の氾濫による創作物の価値低下や創作者のアイデンティティー崩壊、著作権法の理念を毀損する等社会に及ぼした被害は計り知れない
これらの事から、AIを無邪気に利用し生成した創作者は蔑まれるべきであり、AIを賞賛する愚行は即刻辞め反省の意を示すべきである
また、AI全般に体する信頼が失われた為、データセットの厳密な検査や創作者に利益を還元する仕組み作り
創作者による学習対象からのオプトアウトの仕組み作り、無断学習の違法化やウォーターマークの義務化等の技術開発や法整備も併せて進めるべきである
…等としている ネオ・ラッダイト運動の成功によりAIのデータセットの捜査が行われ
その結果として児童の性的虐待画像が含まれていた事を切っ掛けとして一部のAIは運用を一時停止したり
何億以上も存在するデータセットを精査するという現実的に不可能な対応を迫られたりしている
そして、運動の当事者からは、この運動の成功により現状の人権侵害が解消して表現の自由がより護られるとしている
AIデータセットの健全な運営とより善い表現の自由の為に出来る道もまた示された
データセットに不健全なデータが紛れ込んだ場合、例えば
・著作権による学習データ価格の法外な高額化、学習対象からのオプトアウト権行使
・消すと増える状況にはディープフェイク撲滅や無価値なデータの氾濫防止という名目で規制する
・法では無く倫理・道徳等を掲げて運営にデータを精査するよう圧力を掛ける
・時間を掛けてそもそものデータを違法化する事により間接的にAIを浄化したり、特定のデータを扱えないようにAIのプログラムの一部を違法化する
・将来的に脳インプラントや外部補助頭脳、マインドアップロード等の技術革新については。電子頭脳の場合、創作性の低さという名目で規制を掛け、脳オルガノイドの場合先天的な脳のような創作能力が担保出来ないとして規制する
ネオ・ラッダイト運動の名も無き先駆者達は、自らが倫理・道徳や法を作れる訳では無いにも関わらずAIの健全化への道を開いた
今後も何世代か後にAIが健全化される度に、最初期に活躍した先駆者の功績が偲ばれる事だろう 日本の“カワイイ文化”が「生成AI児童ポルノ」の大量流出を招いている | 専門家が子供への「二次被害」を懸念 | クーリエ・ジャポン
https://courrier.jp/news/archives/347289/
リアルな生成AI性的画像が氾濫、実在の被害児童と区別困難…削除要請や捜査にも支障 : 読売新聞
https://www.yomiuri.co.jp/national/20231201-OYT1T50210/ 児童性的虐待の素材の発見後に削除されたAI画像を強化する最大のデータセット
Largest Dataset Powering AI Images Removed After Discovery of Child Sexual Abuse Material
https://www.404media.co/laion-datasets-removed-stanford-csam-child-abuse/
画像生成AI「Stable Diffusion」などに使われた50億枚超の画像セット「LAION-5B」に1008枚の児童ポルノ画像が入っていることが判明し削除へ - GIGAZINE
https://gigazine.net/news/20231221-ai-dataset-laion-child-abuse-images/ N◯◯画像生成AIサービスが
あらゆるところで広告活動しています
通称ステマ法違反のため
警察に通報協力をお願いします ある画像生成AIサービスがあらゆるところで
PRをつけず広告活動をしている
通称ステマ法違反なので警察に通報をお願いします
その画像生成サービス良くないです
綺麗じゃない
どこの画像の画像生成サービスかはネットで調べてください ■ このスレッドは過去ログ倉庫に格納されています