https://gigazine.net/news/20190627-deepnude-ai-undresses-photo/
2019年06月27日
GigaZiNE
※ソース閲覧注意
【科学(学問)ニュース+】
AIを用いて有名女優のポルノ映像を作成するという「フェイクポルノ」が2017年末から2018年にかけて大流行しましたが、
これと同じようにAIやニューラルネットワークを用いることで、
女性の写真から服だけを削除して裸にしてしまうという凶悪なアプリケーション「DeepNude」が登場しています。
DeepNudeは服を着た女性の写真から、服部分だけを削除し、胸や外陰部がはだけた裸の写真に変換してしまうというもの。
女性の写真のみ変換可能で、実際にDeepNudeを使用したというIT系ニュースサイト・Motherboardは、
「服を着た状態の女性でも成功するものの、肌の露出が多い写真の方がより効果的にヌード写真に変換できた」と記しています。
フェイクポルノはAIを使ってムービー内の人物の顔を違和感なく別の人物に入れ替えることができる技術「DeepFake」を用いて作成されました。
しかし、今回作られたDeepNudeは「DeepFakeよりも使いやすく、作成も速い」とのことで、より凶悪なフェイクポルノが生まれる可能性があります。
DeepNudeはダウンロード版のアプリと、オンライン上で試し使いできるデモ版があります。
記事作成時点ではダウンロード版アプリは「メンテナンス中なので12時間後にもう一度チェックして」と表示されダウンロードできません。
リベンジポルノ活動団体であるBadassのカテリン・ボーデンCEOは、
「これはとても恐ろしいことです。裸の写真を撮ったことがなくても、誰でもリベンジポルノの犠牲者になる可能性があります。
このような技術は一般向けに公開されるべきではありません」
と語っています。
メリーランド大学のロースクールに勤めるダニエレ・シトロン教授は、
「(DeepFakeやDeepNudeのような技術は)性的プライバシーの侵害です」
と語っています。
加えて、
「本物の陰部が写っているわけではありません。
しかし、他の人たちは(DeepNudeが作った裸の写真を見て)あなたが裸になったのだと思うでしょう。
DeepFakeの被害者たちは私に『何千人もの人々が自分の裸を見て、自分の体はもはや自分のものではないかのように感じた』と語りました」
と述べています
DeepFakeが公開されたのは2019年6月23日で、無料でダウンロードできるアプリ版には大きなウォーターマークが埋め込まれるようです
しかし、50ドル(約5400円)の有料版ではこのウォーターマークが消え、代わりに画像の左上に「FAKE(偽)」という文字が追加されるのみとなります
この「FAKE」マークは画像の左上に表示されるだけなので簡単に切り取り可能であり、Photoshopで削除することも容易とのこと
Motherboardはテストとして10人以上の男女の有名人を裸に変換しており、結果は写真により異なるものの、
カメラの方を向いたビキニ姿の女性の写真は特にうまく裸に変換できたとしています
Motherboardによれば、DeepNudeのアルゴリズムは「衣服の下にある胸の角度から、乳首の位置や影を正確に補完します」とのこと
なお、Motherboardはうまく裸に変換できた事例として、
テイラー・スウィフトやタイラ・バンクス、ナタリー・ポートマン、ガル・ガドット、キム・カーダシアンなどの写真を公開しています
ただし、低解像度の写真や漫画のキャラクターなどではうまくいかなかったようです
MotherboardはDeepNudeの開発者である「アルベルト」を名乗る男性と連絡を取ることに成功
アルベルトさんは2年前の2017年にGANsなどの技術を知り勉強を始め、
カリフォルニア大学バークレー校が2017年に開発したpix2pixをベースにDeepNudeを開発したとのこと。
DeepNudeのアルゴリズムをトレーニングするために、1万枚以上の女性のヌード写真を用いたとも語っています
アルベルトさんはDeepNudeの男性版も開発予定としながら、男性の場合はインターネット上でヌード写真を見つけづらいのが難点だとしています
アルベルトさんは「ネットワークは多角的なものであり、それぞれが異なるタスクを持っています
ひとつは服を認識し、ひとつは服を消し、ひとつは服をはがした際の乳首などの位置を推測し、ひとつは裸をレンダリングする」と語っており、
この複合的な処理により変換に時間がかかるようになっているものの、いずれは処理を高速化していく予定とのこと
■■以下略、続きはソースをご覧ください