AppleがiPhone内の画像から勝手に児童ポルノを通報すると発表!今年中に米国で開始

 個人の持つiPhoneに対してスキャンがはじまります。

 今週の木曜日にAppleは、米国内の個人のiPhoneに記録されている全ての画像データに対して、常に監視を行うシステムを導入すると発表しました。

 目的は児童虐待画像(児童ポルノ)の拡散を防止するためとのこと。

 システムは今年の後半に導入され、違法画像が検知された場合、データが抜き取られ、警察に通報されます。

 さらに、システムによる監視は画像だけでなく、言葉にも及びます。

 児童ポルノに「関連する言葉」を検索しようとするとするだけで「Siri」や「Search」といった私たちに馴染み深いソフトたちが警告を行うようになるそう。
 
 もちろん新しく導入される監視システムは児童保護団体から歓迎されていますが、セキュリティー研究者たちは、プライバシー監視の始まりだと懸念を示しています。

 どのような仕組みで違法画像を検知しているのでしょうか?

(以下略、続きはソースでご確認下さい)

ナゾロジー 2021.08.06
https://nazology.net/archives/94197