【ナゾロジー】AppleがiPhone内の画像から勝手に児童ポルノを通報すると発表!今年中に米国で開始 [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
AppleがiPhone内の画像から勝手に児童ポルノを通報すると発表!今年中に米国で開始
個人の持つiPhoneに対してスキャンがはじまります。
今週の木曜日にAppleは、米国内の個人のiPhoneに記録されている全ての画像データに対して、常に監視を行うシステムを導入すると発表しました。
目的は児童虐待画像(児童ポルノ)の拡散を防止するためとのこと。
システムは今年の後半に導入され、違法画像が検知された場合、データが抜き取られ、警察に通報されます。
さらに、システムによる監視は画像だけでなく、言葉にも及びます。
児童ポルノに「関連する言葉」を検索しようとするとするだけで「Siri」や「Search」といった私たちに馴染み深いソフトたちが警告を行うようになるそう。
もちろん新しく導入される監視システムは児童保護団体から歓迎されていますが、セキュリティー研究者たちは、プライバシー監視の始まりだと懸念を示しています。
どのような仕組みで違法画像を検知しているのでしょうか?
(以下略、続きはソースでご確認下さい)
ナゾロジー 2021.08.06
https://nazology.net/archives/94197 >>1
アニメ画像とか 殆ど児ポ判定されそうやな
そこまで個人の携帯電話を検閲して良いのかな? iPhoneだけでなくiPadやMacでもやってくれ >>2
端末データを無断でサーバーへ送り検証するって意味だよ 疑わしい画像も
判断のために勝手に貰うけど
通信費はお前持ちな!
まさに外道 すごいな
目障りなやつこれではめて
人生終わらせられるやん
こわ すごいなこれ児ポ関係なく政治やAPPLE批判とかも設定しだいで調べられるてことだよなw やだードロユーザーがロリだと思われるじゃないですかー! 児童ポルノには反対だが、一方的な監視システムにも反対。
appleとは縁を切る。 とりあえずはアメリカが対象のようだがこれは問題になりそうだな
Aiの誤認による冤罪の可能性やプライバシーの侵害にもなる
これを機にiPhone離れが進むかも知れん クラウドとか云うものの危うさよ
写真は写真機で撮りましょう ni�a culetin
でググる画像検索すると・・ リースと変わらんな
所有権はあるようでない
まあこっそりやるよりアップルの方が信頼感あるな >「neural Hash」は、児童ポルノとされた既存の20万枚の画像パターンをAIに学習させたアプリ
ほうほう
アップルは頑張って児童ポルノ写真を集めたんだ ぬぬぬぬ、いらんことしおってから
アンドロイドに買い替えだ
w いやはやこれはびっくりだ・・・
自分のiPhoneには我が子の写真がいっぱいなのに覗き見されたあげく犯罪者にされたら家庭崩壊だわ
日本でもそうなったらiPhoneなんてすぐ処分して泥に買い替えだ 世界最大のロリ文化を誇る日本ピンチ
シーズン1:日本人が米国へ行ったら瞬間に逮捕されまくる 真の「ビッグ・ブラザー」はAppleだったというオチ >>35
日本はそうでもないよ
ヨーロッパと似たり寄ったり >>3
アウトだと思う
アメリカでは異性の子供を風呂に入れる。
また同性でもある程度の年齢(7歳くらいだったかな)になったら一緒の風呂は性的虐待で捕まるから iPhoneに収納された画像だけか対象なのか?
そのようなサイトを閲覧してもOK? cloud(icloudを除く)に収納はOK? >>1
なんだただのテレスクリーンじゃん。
アップルが1984のビッグブラザーに成り果てるとはジョブスもびっくりだろう。 >>23
マッキントッシュの1984のCMを作った会社とはとても思えないよね。 キューピーちゃんの写真がどうなるかとか試してみたい >>31
アップルを20万枚の児童ポルノの収集で告訴すべきではないかと誰でも思うだろ。 イギリス人が読んだふりする本のナンバーワンが「1984」。
ちゃんと読むと本当に面白いし監視社会の恐怖をよく描いてる。 逆にアップル社が個人の端末に児童ポルノを
こっそり転送することも可能なんだろう?
敵を失脚させるには持って来いのテクノロジーだ >>1
端末内の画像まで検閲するようになるのかw
Googleよりヤバいな アメリカの視点からしたら日本人の成人女性すら
ろりのはんちゅうなんでそ? いくらなんでもこれはだめだろ
捜査令状なしに家宅捜索するようなもんだろ
むかし自動で画像ダウンロードするソフトとか使ってたやつはフォルダの中身全部チェックしないとだめだな 実質iPhoneの終わりじゃね?
ダウンロードされるたびに、メール打つたびに全部スキャンされるんだろ
そんなの自分固有の持ち物とはとても思えんわ やっぱ思うけどクラウドって気持ち悪いよね。
中身は見ないみたいなこと言ってても見られまくってるんだろうね。 >>1
別にいいけど
普通の人が、スラムの墓地の写真とか見たら病むと思うから、かなりの程度の耐性が、ある人を選ばないとだめだと思う。 少なくとも日本国内では法律的に不可能
アメリカには通信の秘密みたいな法律はないのか? そういや昔OneDriveからエロが勝手に削除される、みたいな話あったけど、あれは結局何だったんだ >>67
所有者がアップルと合意していれば可能だろう
逆にそういう合意をしなければiPhoneを
買えなくなるんだろうね >>61
こういうこと言うやつ大抵gmail使ってる appleは20万枚のロリ画像を所持してると
人権団体はこれをスルーするんかな? 勝手に児ポ画像をダウンロードさせてマッチポンプ通報とかも出来ちゃうな 沢渡朔の『少女アリス』もアウト?w
ヤレヤレ( ´_ゝ`)y─┛~~ これはやっちゃあいけない
捜査令状無しに家宅捜索するようなもんだ 画像だけでなく検索ワードまで検閲するとはアップル凄いな
共産国並みの監視体制だ >>41
アメリカとは違うのだと論述できるように準備することですね
どうせ日本人は誰かに言ってもらえばいいと思ってるんだろうけど 今日本の政権という村民中枢にいるのは
ダウンロード法通そうとした甘利さんですからね これやばいな画像データに介入できる段階で冤罪でっちあげし放題じゃん
邪魔な人間を一発退場させられる >>78
アップルとグーグルがダメなら、他に何を選べばいいんだろう。 本当にこの一線超えるのならもう終わりだね
というか、監視社会に向けたエポックメイキングな事件になる
犯罪は常にグレーの部分があるし、個々人の価値観やコミュニティの文化によって判断が割れる部分がある
その曖昧な部分の判断を一私企業が行い、しかもそれをブラックボックス化した機械にやらせるということだ
これをやるなら私企業が絶大な権力を持つことになる
なぜそんなことを始めるのがあのアップルなんだ?とても残念
そんなことをするのなら、そもそも保存させないようにするべきだし、その技術があるのに保存させてしまったのならアップルもその責を負うべきだろう 何故アメリカ合衆国は児童に関してここまで厳しいのか
・ガチのチャイルドマレスターが多い
・元々誘拐等の事件も多く牛乳などの商品に尋ね人として行方不明になった子どもなどが載っている
・闇サイトなどで児童の売買が行われている
・色々と厳罰化されているため子どもが発見されないように口封じで取り敢えず殺す場合も多い
・そもそも風呂に頻繁に入る習慣が無い上に赤ちゃんにも子ども部屋がある程の個人主義
・キリスト教で神の言われた「産めよ、増えよ、地に満ちよ。」を達成するための生殖行為以外での性に間する事は堕落であるため禁忌 LGBTのLはロリコンだが、Lに対する差別と権力による弾圧は凄まじいものがあるな これ自分の子供の画像でも勝手にFBIに通報され。
本人も知らないでハワイなどに旅行したら、入管で逮捕されるパターンだな。
てゆうか、日米間には犯人引き渡し条約があるから、ある朝突然日本の警察が玄関をノックして、そのままダメリカに連行されるか。
■ このスレッドは過去ログ倉庫に格納されています