【ナゾロジー】AppleがiPhone内の画像から勝手に児童ポルノを通報すると発表!今年中に米国で開始 [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
AppleがiPhone内の画像から勝手に児童ポルノを通報すると発表!今年中に米国で開始
個人の持つiPhoneに対してスキャンがはじまります。
今週の木曜日にAppleは、米国内の個人のiPhoneに記録されている全ての画像データに対して、常に監視を行うシステムを導入すると発表しました。
目的は児童虐待画像(児童ポルノ)の拡散を防止するためとのこと。
システムは今年の後半に導入され、違法画像が検知された場合、データが抜き取られ、警察に通報されます。
さらに、システムによる監視は画像だけでなく、言葉にも及びます。
児童ポルノに「関連する言葉」を検索しようとするとするだけで「Siri」や「Search」といった私たちに馴染み深いソフトたちが警告を行うようになるそう。
もちろん新しく導入される監視システムは児童保護団体から歓迎されていますが、セキュリティー研究者たちは、プライバシー監視の始まりだと懸念を示しています。
どのような仕組みで違法画像を検知しているのでしょうか?
(以下略、続きはソースでご確認下さい)
ナゾロジー 2021.08.06
https://nazology.net/archives/94197 >>1
アニメ画像とか 殆ど児ポ判定されそうやな
そこまで個人の携帯電話を検閲して良いのかな? iPhoneだけでなくiPadやMacでもやってくれ >>2
端末データを無断でサーバーへ送り検証するって意味だよ 疑わしい画像も
判断のために勝手に貰うけど
通信費はお前持ちな!
まさに外道 すごいな
目障りなやつこれではめて
人生終わらせられるやん
こわ すごいなこれ児ポ関係なく政治やAPPLE批判とかも設定しだいで調べられるてことだよなw やだードロユーザーがロリだと思われるじゃないですかー! 児童ポルノには反対だが、一方的な監視システムにも反対。
appleとは縁を切る。 とりあえずはアメリカが対象のようだがこれは問題になりそうだな
Aiの誤認による冤罪の可能性やプライバシーの侵害にもなる
これを機にiPhone離れが進むかも知れん クラウドとか云うものの危うさよ
写真は写真機で撮りましょう ni�a culetin
でググる画像検索すると・・ リースと変わらんな
所有権はあるようでない
まあこっそりやるよりアップルの方が信頼感あるな >「neural Hash」は、児童ポルノとされた既存の20万枚の画像パターンをAIに学習させたアプリ
ほうほう
アップルは頑張って児童ポルノ写真を集めたんだ ぬぬぬぬ、いらんことしおってから
アンドロイドに買い替えだ
w いやはやこれはびっくりだ・・・
自分のiPhoneには我が子の写真がいっぱいなのに覗き見されたあげく犯罪者にされたら家庭崩壊だわ
日本でもそうなったらiPhoneなんてすぐ処分して泥に買い替えだ 世界最大のロリ文化を誇る日本ピンチ
シーズン1:日本人が米国へ行ったら瞬間に逮捕されまくる 真の「ビッグ・ブラザー」はAppleだったというオチ >>35
日本はそうでもないよ
ヨーロッパと似たり寄ったり >>3
アウトだと思う
アメリカでは異性の子供を風呂に入れる。
また同性でもある程度の年齢(7歳くらいだったかな)になったら一緒の風呂は性的虐待で捕まるから iPhoneに収納された画像だけか対象なのか?
そのようなサイトを閲覧してもOK? cloud(icloudを除く)に収納はOK? >>1
なんだただのテレスクリーンじゃん。
アップルが1984のビッグブラザーに成り果てるとはジョブスもびっくりだろう。 >>23
マッキントッシュの1984のCMを作った会社とはとても思えないよね。 キューピーちゃんの写真がどうなるかとか試してみたい >>31
アップルを20万枚の児童ポルノの収集で告訴すべきではないかと誰でも思うだろ。 イギリス人が読んだふりする本のナンバーワンが「1984」。
ちゃんと読むと本当に面白いし監視社会の恐怖をよく描いてる。 逆にアップル社が個人の端末に児童ポルノを
こっそり転送することも可能なんだろう?
敵を失脚させるには持って来いのテクノロジーだ >>1
端末内の画像まで検閲するようになるのかw
Googleよりヤバいな アメリカの視点からしたら日本人の成人女性すら
ろりのはんちゅうなんでそ? いくらなんでもこれはだめだろ
捜査令状なしに家宅捜索するようなもんだろ
むかし自動で画像ダウンロードするソフトとか使ってたやつはフォルダの中身全部チェックしないとだめだな 実質iPhoneの終わりじゃね?
ダウンロードされるたびに、メール打つたびに全部スキャンされるんだろ
そんなの自分固有の持ち物とはとても思えんわ やっぱ思うけどクラウドって気持ち悪いよね。
中身は見ないみたいなこと言ってても見られまくってるんだろうね。 >>1
別にいいけど
普通の人が、スラムの墓地の写真とか見たら病むと思うから、かなりの程度の耐性が、ある人を選ばないとだめだと思う。 少なくとも日本国内では法律的に不可能
アメリカには通信の秘密みたいな法律はないのか? そういや昔OneDriveからエロが勝手に削除される、みたいな話あったけど、あれは結局何だったんだ >>67
所有者がアップルと合意していれば可能だろう
逆にそういう合意をしなければiPhoneを
買えなくなるんだろうね >>61
こういうこと言うやつ大抵gmail使ってる appleは20万枚のロリ画像を所持してると
人権団体はこれをスルーするんかな? 勝手に児ポ画像をダウンロードさせてマッチポンプ通報とかも出来ちゃうな 沢渡朔の『少女アリス』もアウト?w
ヤレヤレ( ´_ゝ`)y─┛~~ これはやっちゃあいけない
捜査令状無しに家宅捜索するようなもんだ 画像だけでなく検索ワードまで検閲するとはアップル凄いな
共産国並みの監視体制だ >>41
アメリカとは違うのだと論述できるように準備することですね
どうせ日本人は誰かに言ってもらえばいいと思ってるんだろうけど 今日本の政権という村民中枢にいるのは
ダウンロード法通そうとした甘利さんですからね これやばいな画像データに介入できる段階で冤罪でっちあげし放題じゃん
邪魔な人間を一発退場させられる >>78
アップルとグーグルがダメなら、他に何を選べばいいんだろう。 本当にこの一線超えるのならもう終わりだね
というか、監視社会に向けたエポックメイキングな事件になる
犯罪は常にグレーの部分があるし、個々人の価値観やコミュニティの文化によって判断が割れる部分がある
その曖昧な部分の判断を一私企業が行い、しかもそれをブラックボックス化した機械にやらせるということだ
これをやるなら私企業が絶大な権力を持つことになる
なぜそんなことを始めるのがあのアップルなんだ?とても残念
そんなことをするのなら、そもそも保存させないようにするべきだし、その技術があるのに保存させてしまったのならアップルもその責を負うべきだろう 何故アメリカ合衆国は児童に関してここまで厳しいのか
・ガチのチャイルドマレスターが多い
・元々誘拐等の事件も多く牛乳などの商品に尋ね人として行方不明になった子どもなどが載っている
・闇サイトなどで児童の売買が行われている
・色々と厳罰化されているため子どもが発見されないように口封じで取り敢えず殺す場合も多い
・そもそも風呂に頻繁に入る習慣が無い上に赤ちゃんにも子ども部屋がある程の個人主義
・キリスト教で神の言われた「産めよ、増えよ、地に満ちよ。」を達成するための生殖行為以外での性に間する事は堕落であるため禁忌 LGBTのLはロリコンだが、Lに対する差別と権力による弾圧は凄まじいものがあるな これ自分の子供の画像でも勝手にFBIに通報され。
本人も知らないでハワイなどに旅行したら、入管で逮捕されるパターンだな。
てゆうか、日米間には犯人引き渡し条約があるから、ある朝突然日本の警察が玄関をノックして、そのままダメリカに連行されるか。
>>16
AV女優の七沢みあのサンプル画像をファンザ(DMM)で集めてたりするのも児童ポルノと間違われるのか? 児童ポルノ以外のデータもアップルに筒抜けって事か? >>1
子供の写真を撮りまくる父親が一斉に逮捕されるな >>3
俺は去年くらいに子供の頃友達と家庭用のプールに入ってる時に撮った写真をアプリで取り込んだんだけど
それもアウトだな
男だけで上半身裸なだけだけど アメリカとか自分の子供の女の子の上半身裸画像とかアップしてる
フォロワー数上位の奴とかいるし
キャッシュまでチェックされたら逮捕者数、数十万単位で出そうだな
youtubeも溢れかえってるから動画のキャッシュまでチェックされたら
ヤバイ奴いっぱい居そう
てか保持してるだけでアウトならNHKとか創価学会とかまずアウトだろ
NHKとかもろ映像どんだけ保存してんだよ
創価学会も以前CMに使ってたしな >>1
アメリカ入国時に自分の子供を撮影してても通報される >>1
1、標的のiPhoneのロック画面からカメラを起動して児ポを撮影
2、標的のiPhoneにAirDropなどで児ポを送る(送信元はPCなど)
3、他に方法ないか? >>1
アメリカ入国時に自分の子供を撮影してても通報される 中国を笑えないレベルでアメリカも酷くなってるな。
この調子だと真面目に中国が勝ちそう。 Windows・Macにまで飛び火させて焼野原にするのは勘弁な iPhone内の個人データはApple自身も中身に関与できないとか言ってたが
あっさりかなぐり捨てるんだな AIで誤検出されたらスタッフが目視確認するんだろ?
スマホ覗き見されるとなると、迂闊に自宅の写真も撮れんよな これに反対するとロリコンのレッテル貼られることになるし、ポリティカルコネクトを利用した監視社会の完成だな。 >>1
欧米人の骨格や顔のつくりで判断されたら、アジア人は成人してても児童ポルノって判断されるんだけどな
アメリカ行く時はiPhoneに保存してるエロ写真等は全て削除してから行かないと日本に帰ってこれなくなるな コレはデジタルデータから昔のエロ本文化に戻るのか?
スマホやPCの中はキレイにして、エロは現物オンリーに
通販も足が付くからエロ本自販機や物々交換、河原や山の中へ 仮に日本でやったら津波の如く溢れるエロアニメの画像で
埋め尽くされて司法面での対処は不可能じゃないかな
それ以前に憲法で保証された通信の秘密に触れるか。 これをきっかけに日本のスマホメーカーが強くなったりして これ間違って通報されてたらアップル訴えていいんだよな さすがにこれは無理なんじやない?
発表して物にならなかったのも
アップルには沢山あるしな 想像だけど
これはただの誰もが納得するような理由付けをして法案を通すための
きっかけに過ぎずにロリータ禁止の次が本当にやりたいことなんだと思う。
特定の政党の批判やら特定の人物の名前が出た時点でアウトになるんだと思う。
例えばビルゲイツだとかファウチだとかソロスだとかザッカーバーグだとか
そう言った人間の名前を出したらアウトで逮捕される。
ワクチンに懐疑的なコメントやワクチンに否定的なコメントも逮捕。
そして上級のロリペドは日本のエプスタイン島に来るんだと思う。
それでデジタル庁の顧問にエプスタインと親交のあった伊藤穰一をそえたんだと思われる。
今度の舞台は日本なんじゃない? 偽装画像が出回るだろうなあ
ただのバナー広告に見せかけてメタデータとかに検閲ワードをごっそり書いたり
警告画面に似せたフィッシング詐欺も出回るだろうなあ グーグルも採用しそうだなw
検索勢力に変化がでそうだ カスロムで検閲機能が消された端末が出回るだけだろうな 案の定ロリペド(非モテ、独身者、貧困、障害者、精神病)ばかりレスしてて草w ちなみにアメリカの基準だと
日本の漫画もアウトだから
まず、そういうのが好きな人は、早めにandroidに変えるしかない >>137
自動ポルノ摘発のため、というのは表向きの理由で、問題は端末内のすべての情報を検閲し放題になることと、
場合によっては知らない内に端末内に違法ファイルを置かれて逮捕なんてことも思いのままになることだな Appleは今後、プライバシー保護をウリにするんだと思ってたが…
中身のぞきます一方的に警察に流しますだと、それも台無しだな >>129
訴えるのは自由やろ
で、児童ポルノ入ってんのか? 黒人が娘の写真を撮影
→警察が出動
→黒人が抵抗して射殺
→大規模デモ&アップル訴えられる
→賠償金払えずにアップル身売り
の未来まで見えるわw G〇〇gleだったら生後間もないメスゴリラの写真とかでも通報しそう やばいなApple、プライバシーの保護はどうした?
人々を常に監視し、権力者にとって邪魔な人間を犯罪者に仕立て上げられるディストピアの完成だ
不自由と検閲の国アメリカ
今のところAndroidは安全だけど、将来的にはPCしか使えなくなるだろうな >>3
そのうち臨月間近のエコー画像もアウトになるよ ある意味、アメリカって中国以上の警察国家なんだが・・
予算があちこちに散らばってるので目立たないだけで
組織・人員数、カネの双方で中国を上回ってるよ
なぜか東亜あたりにいくとそのことは無視され
揚句に「中国は秘密警察の予算が軍事予算より多い。それは軍の内乱を恐れるからだ」
などという滅茶苦茶な願望(軍閥に分かれてて内乱がありうるという)とデタラメがまかり通るわけだがね >>23
やっぱり、そうなるよな
やっていることが、中央集権的国家みたいだ >>107
アメリカは、自分の子どもと一緒に風呂にはいることも駄目らしい ロリ野郎が焦っている、と
対岸の火事と思ってる低能は、
自分が国家反逆罪で捕まる日が来るとは
逮捕される日まで気付かないのであった。
ちなみに彼は、
ただの不満屋なだっただけであった。 Apple社だけが児ポを世界中から収集出来て、児ポ好きのスポンサーに販売出来て、かつスポンサーの機器は偽物にすり替え法的に所持してないように見せかけれる。Appleは好事家向けのサービスを提供w アメリカだけとはいうが‥
また炉離婚では無いが、勝手にスキャンされる部分で気持ち悪さを感じてしまう。
いかがわしい写真とか何もなくても。
アメリカだけではなく、本当は全部をスキャンしてる可能性もあるし、可能な機能という事になる。
日本だと、漫画やアニメの二次元についてが関係してきそう。
例えば、電子書籍でロリコン物を所持してただけで、通報されたなんて事がありそう。
親子での写真や親戚の写真‥
例えば庭に小さなプール出して遊んでる写真を撮って通報もありえる。 今までも似たような事は前からやってたんじゃないの?テロ対策の名目で。
iPhoneのストアにファイアウォールアプリが存在しない時点で、目的があるものだと思ってたよ 子供が性的被害を受けるのは止めなきゃいけないと思うけど、これはやり過ぎじゃないかな。あと何か気持ち悪い。
AIが人種的な違いとか、文化的な違いとかの判断を完璧にできるものなのかな。 Appleは公権力の介入を偏執的に嫌うから、フェイクニュースではないのかな?
ってもジョブズの頃とはちゃうからなぁ…。 別の目的があるんだろうな
ジポと言えば聞こえはいいが 実際の話、これで一番通報されるのはごく普通の親と祖父母だろうな >>40
いや日本人なら18歳以上の女性も児童として判別されるから児童ポルノ大国扱いなので >>144
育児中の親は皆捕まるぞ、マジで
今どきの若い親のスマホは子供の写真で一杯だし、その中に
子供の半裸写真が一枚も入ってない親なんか存在しない >「neural Hash」は、児童ポルノとされた既存の20万枚の画像パターンをAIに学習させた
これは検証が必要だな。 >>135
信頼できるのは中華スマホと百度だという。 児ポ単純所持ってヤバすぎだろ
まぁ当時も問題にはなったが
小学生以下とかじゃなくて基準が18未満かよ
女子中高生がアウトか
そんな画像も動画もネットにいくらでも
転がってるじゃん。持ってる人も多いだろ
真性ロリは厳しくなったからか今あまり見かけないが 調理に使っても、殺人に使っても
ナイフは凶器とみなすって事だよね。
狂気の沙汰。 >>172
性的のためじゃなきゃOkなんだって
他人が持ってるとアウトだが親はセーフらしい 児ポじゃない画像でも、警察に送られて赤の他人が確認する。
これが発覚した場合はAppleは訴えられると思う。
その前に、援助交際を防止するシステムの方が重要だと思うわw >>141
もともとクラウドは見ようと思えば見えてただろ
見られないなんて思ってるのは情弱、おめでたい人 ポルノはドンドン取り締まってかまわない。
自分とは全く関係のない世界だから。
憲法上の個人の思想信条・趣味嗜好を守るためには、
ネット回線から切り離されたスタンドアローンにしないとダメか。
映画はサブスクリプションでも楽しんでいるが、円盤も買っている。
時代の移り変わりにより不適切となる言葉・文化がある。
風と共に去りぬの中で黒人の女中さんが白人の美人さんに使えている。
BLM運動の今の時代には、きっと放送が難しいだろう。
自分の魂の自由のため大金を投じて趣味を構築しているよ。 日本の児童ポルノは
18歳未満 このヤバさ
ガチロリやぺドだけじゃない
ジュニアアイドルとか、体を強調してるのは
アウトらしい。紗綾とかも今は駄目なのかね ただまぁ、こうなってくると不安なのがアップル製のOSやソフトだよね…
macがヤバイのは無論、win版iTunesやSafariもPC内の画像やデータを勝手に検索して通報し出すかもしれない >>76
令状ありでも家宅捜索やpc押収なんて人権侵害だろ 警察はある日突然やって来る
用もないのに。関わりたくないのに それはいいとしても証拠集めのためのスクショを当事者の関係者がスクショして保存してもダメってことになるじゃん >>1
ゲイのティム・クック
「エプスタインロリペドビル・ゲイツ信者は便所に隠れていても全員見つけ出して殺す」 >>178
皆最初は「性的なものだけが対象」と言うんだよな
そしてしばらくすると「ビニールプールの水遊びはエロいからアウト」となる AIが疑いをかけた時点で、令状とか関係なくすべての画像を捜査官がチェックする
児ポと関係のない嫁や娘とのHな画像とかも全部チェックされる
こんな事が許されていいのか!! >>191
今は発表されていないけど似たような検閲をかけると思う
Googleのサーバーには20万どころじゃないロリ画像が溢れてるから構築はできるはず 中高生の画像ぐらいはたくさんアップされてるよな
小学生はあんまないが さすがにこれはやりすぎだろ
アップルからユーザーが離れていくぞ
疚しいことなくても、いつどんな難癖つけられるかわからないじゃん 正直これは一線超えてるよな
スマホみたいなパーソナルな情報機器で、しかもアップロードもしてない画像をAIが勝手にエロチェックとか
ほとんど内心の自由を侵害するような行為だよ。中国と専制国家競争でもしてるのか? デジタルは危ないからと、昔ながらのフィルムカメラの復活だ。 正直監視するならもっとお薬とかテロとか犯罪絡みのやった方がいいんじゃないかな 児童ポルノを理由にガンガン中見ていきますよって事だろ
怖すぎ もともとこっそり見て情報収集していたけど、これからは公にして対象者へアプローチしていきますよってことだと思うよ。
だからすでに対象者のリストはできていて、今更何しても遅いかと。。 >>1
コンパクトデジカメまた売れるようになるなオリンパス株急上昇やで(;゚∀゚)=3 これクラウドだけじゃなくて
写真アプリやファイルアプリも検閲対象なんだよね?
あとはメールアプリの中身も対象ってことだよね。
監視社会で陰謀論って言われてたことがどんどん現実になるね。
マイナンバーにはじまりデジタル庁で全部紐付け
ワクチンパスポートも現実になるのかなぁ・・・ 2歳の娘が庭のプールで裸なのはおkなのかい?
ダメならpcに移して消すけど 前オーストコリアで日本人が空港で捕まったよな
携帯にポルノあるからって
あれもこれもやばいやな >>45
ぶっちゃけ、ジョブスにもビッグブラザー気質があると思う。
現実にアップルの独裁者だったし。
そういう意味では、綺麗ごとが大好きなアップルらしいと思う。 >>209
ちょっとでも疑いのあるデータはアウトと思った方がいい >>190
エプスタイン島は、むしろ特権階級の秘密の場所でのリアルなお遊びだから、
絶対ひっかからないじゃん。
仮にアホが証拠のこしてひっかかっても、お仲間同士もみ消すだろうし。
バイデン息子なんていまだにつかまりもしない。
すでに新しいエプスタイン島は誕生してるだろうよ。 >>209
もし捕まっても、実の娘でやましい事がなければ無罪放免よ
へーきへーき >>216
法律に反する規約は無効だから日本ではセーフ
サーバーが通信の秘密が無い国だと可能になる
隣の国とか(あっ >>41
なるほどねぇ
こうやって池沼の子供が親に風呂に入れてもらえなくなってコロナを初めとする感染症が蔓延するわけだ。
児童虐待画像(児童ポルノ)の拡散を防止するためなら健康なんかクソくらえ!
ってコトなんだねぇ
疫病に対して民主主義は弱いと言われるけど、米国に関しては単に社会風土の問題だな。 >>210
オーストラリアは年齢に関係なく胸が一定以下なら児童ポルノ認定して禁止に使用って法案をマジで検討した(当然女性の方からクレームが来て通らなかった)ほどのアホだからこんなのやったら間違いなく日本人は捕まるだろうな。 アップルなら普通にオーストラリアやEUとかにも通報しそうw >>186
令状ありは人権侵害ではない
おまえは社会不適合者だな Appleは警察に通報するだけで、警察が摘発するかどうかはまた別の判断基準になる 【シオン長老の議定書・第二の議定】
こうして双方の交戦国は、どんな地の果てまでも散らばっている我々のエージェントの思いのままにされてしまう。
このエージェントは無数の眼を光らしていて、どんな国境もこの活動を阻止できない。
://rapt-neo.com/?p=11777
「どうして日本政府は公に抗議しないのか?」とスノーデンは疑問をぶつける。
「もし抗議しないのなら、それは自ら進んで不適切な扱いを受け入れているのと同じことです。
自分で自分に敬意を払わないで、どうしてだれかに敬意を払ってくれるよう頼めますか?」
ウィキリークスが昨夏公表した「ターゲット・トーキョー」 大規模盗聴事件を、スノーデンはこう振り返った。
しかもこれらの盗み聞きは
「ファイブ・アイズ」と呼ばれるイギリス、オーストラリア、ニュージーランド、カナダにも一部回覧されていた。
://ameblo.jp/kissy-seed/entry-12169028831.html
FBI長官が「ファーウェイの端末は情報を盗む機能を持っている」と述べたとのこと…。
://www.appps.jp/286279/
スノーデン氏、「iPhone」ロック解除問題でFBIの主張を「でたらめ」と非難
://japan.cnet.com/article/35079296/
スノーデンが暴露『iphoneは電源を切ってても盗聴できる』
://www.iphone-mysterious.com/20140612172943.html
これの通信量自分持ちだろ。安いプランに入ってるやつは死ぬじゃん。 これは綺麗な検閲です。
ポルノが好きならばAndroidを使えば良いのです。 技術進歩が進むと最終的に全体主義社会になる必然性がある。 これといいポリコレといいアメリカもかなり頭おかしくなってるな
中国は別の方向に頭おかしいのである意味似たもの同士だな >>32
二次ロリどころか
君の名はですらジポ扱いになりそうだもんな >>180
技術力に見れる見れないの話ではない。
おめでたいのはお前だよ。 >>232
アメリカの困るところは「アメリカは人種のるつぼで
世界の縮図!…だから世界もアメリカのようなところ!」って
勝手に思い込んでて『アメリカ合衆国固有の問題』が
世界にも蔓延しているに違いない!…世界はアメリカより劣っているのだから
当然もっとひどい形で!ってガチで信じてるところ。 児童ポルノ検知ならまぁ、ってところから始めてインストール強制させといて
ある日突然こっそり全然別の画像が監視対象に加わって
知らぬ間に監視対象人物リストに入ってるなんてことが起こりうる。 >>237
アメリカが人種のるつぼなのは事実だけど基本的には何らかの理由で元の国にいられなくなった連中が集まってきた所だからね察し
自分の意思で来たわけじゃない黒人奴隷も白人が無差別に奴隷狩りしたんじゃなくて部族内の抗争や部族間の抗争で負けたやつが売られたってのが大多数だからね。 つーかこれさ、ロリに興味ないやつが、例えば熟女ものだと思って開いたらロリでしたってなったらアウト?
もうエロサイト見れないじゃん。 >>213
美談みたいにしてなかったか?
オアシスのような関係だったとか言ってた。 正直、大金持ちのパトロンだらけの「パパ活島」なんぞがあったら
15-18歳あたりの“知ってる”少女の方から応募殺到すると思う。 こういうのは賛成と反対に別れる
警察擁護とアンチのように
まぁロリ自体は擁護しづらいが
中学生ぐらいまでは正常だろ こういう綺麗事を盾にして全てのデータの抜き取り、改ざんを実現させるつもりでは? こういう綺麗事を盾にして全てのデータの抜き取り、改ざんを実現させるつもりでは? >>243
何を言ってるんだ?
保存してなきゃ大丈夫だろ >>1
アメリカだと30代アジア人でも児童って見られるからな。
そこら辺はちゃんとAI学習できるの?
アメリカ人的な感覚でやられても困るんだけど? >>1
ザマァw
お前らロリコンは全員逮捕で良いよwww >>255
彼女や奥さんや自分の子供の写真までもが管理される事を危惧してるのに
童貞のお前ときたらw >>255
ガイジ、お前は来世は畜生道に落ちてひたすら嘗糞しろwwwww
iCloud 停止すれば済む話だろ
ICloud 使うとか白痴かwwwwwwwwwwwww >>243
iPhone ほんたいしょなくてさICloud をスキャンする模様
つまりiCloud 止めればいいだけ >>1
調べたらiCloudだけじゃなくてiPhone内部もじゃないか
さすがにありえない
こんなの許したら、
他の違法コンテンツ、著作権違反とかにも範囲広げていくだろうし、
そのうちに検閲の対象もあいまいになり、違法データの決定権を握れば、
権力者の都合の悪い情報を消すことだってできるようになってしまう
今では考えられないが、これが進めば、検閲できないようなデータの個人保有に制限をかける方向に進むだろうし
行く先は監視社会ディストピアだ
許せない 女子高生に興味がある男は90%なのに
女子高生の画像所持が禁止てやばくね?
どこのpcにも入ってるだろ キャッシュはどうすんだよ?
これからは相手のスマホにジポ入れて嫌がらせする行為が横行するだろう。 >>260
位置情報のビッグデータ化の時もそうやって騒いでたような >>260
自由を機械的に制限する実験は既に無作為的にされている気がするな
一応条件に見合った抑圧的な環境に慣れた奴等を使ってあらゆるストレスを掛け続けるみたいな
んでどこで限界を迎えたか調べてデータにすると
摘発されれば社会ひっくり返るだけの問題が起きてる可能性もあるよな
創作にありがちだっていうだけの理由ではあるんだが、SNSはプライバシーを強力に守るとか言いながら政府に情報提供してたとかね
日本もファイブアイズ入りで無条件に欧米型価値観の流入を強いられるかもな まぁ日本がどのくらい自由度が高い情報の授受が許されているのかも判らないんだがな
より欧米型に価値観が変わっていくにつれそれぞれ良点も不満点もありそう >>252
海外工口サイトでミニマムとかの童顔低身長女優使った
擬似ロリものが本当に見つからない… 取り敢えずわかりやすい児ポ関連からか 設定次第で何でもありだな 皮膚とかの異常を相談するのに写真は有効なんだがな。
部位によってはポルノ扱いされかねないし、誤認識も怖い。 >>264
そりゃそうだ
あれは任意とは言え、いずれは強制されるだろうし
すでに警察は令状なしで勝手にGPSをOnにして位置情報を引き抜く仕組みを導入してる
こうやって監視社会の仕組みが整っていくわけだ
>>266
さすがに特定の個人で実験を行う、ということはまだ無いと思いたいが……
ただプライバシーは侵害されているだろな
クラウドもSNSもすべて検閲できる仕組みはあると思ってる
憲法で通信の秘密が保護されているから、表立って使われることはないだろうが、仕組みは整ってきているはず
こんな声明を出しているぐらいだからな
ttps://japan.cnet.com/article/35160775/
E2EEの考え方がもっと広まればいいのに 機密情報を共有する5カ国協定、いわゆる「ファイブアイズ」の参加国(米国、英国、カナダ、オーストラリア、ニュージーランド)が、日本およびインドの政府代表と連名で声明を発表した。テクノロジー企業に向けて、エンドツーエンドの暗号化された通信に法執行機関がアクセスすることを可能にする解決策の開発を要請している。
この声明は、暗号にバックドアを設けることをテクノロジー企業に同意させようとする、ファイブアイズの最新の取り組みだ。
各国の政府関係者はこれまでと同様、テクノロジー企業が製品にエンドツーエンド暗号化(E2EE)を組み込むことで犯罪捜査が困難になったと主張している。
7カ国の政府代表は、現在の主要なテクノロジープラットフォームでサポートされているE2EEの仕組みのために、法執行機関が犯罪組織を捜査できないばかりか、テクノロジープラットフォーム各社も、一般市民を守るためのサービス利用規約を守らせることができずにいると主張している。
声明では、「暗号化技術の特定の実装」によって、法執行機関の捜査に問題が生じているとしている。テクノロジープラットフォーム各社も一部の通信内容にアクセスできず、捜査当局に必要なデータを提供できないからだ。
これにより、犯罪活動にとって安全な避難場所の確保を許し、「性的に搾取されている児童など、われわれの社会の中でも特に弱い立場の人々」を危険にさらしてしまうという。
7カ国はテクノロジー業界と協力し、ユーザーが引き続き安全で暗号化された通信を利用できるだけでなく、法執行機関とテクノロジー企業も犯罪活動を取り締まれる解決策を開発するよう尽力していくとした。
暗号化されたインスタントメッセージアプリだけではなく、「デバイスの暗号化、カスタム暗号化アプリ、統合プラットフォーム全体の暗号化」も対象となるという。
2018年には、オーストラリアが主要な民主主義国家の中で初めて「反暗号化法」を導入した。同様の取り組みは米国や欧州でもあったが、そこまで成功しなかった。主な理由は、テクノロジー企業や非営利団体、一般市民からの反発だ。
しかし、西側の政府が機密情報の収集能力で中国と対等になろうとする中、オーストラリアと同様の対応を求める圧力が近年高まっている。
https://japan.cnet.com/article/35160775/ >>272
勝手にオンとか位置とつこともできるの?
そういうので逃げても捕まってるのも
あるんだろうか。いように早く捕まることもあるよね
オンにするまでもなく位置情報取れれば、逃げるとか隠れる
ってレベルじゃなく丸見えだ。スマホ持つのがリスクじゃないか
まぁ携帯も発信すると大まかな位置がわかったようだが 親が赤ちゃん〜2、3歳児と一緒にお風呂入ってる写真とか
スマホに入れてたら通報案件かよ・・・恐ろしすぎ。 >>221
>オーストラリアは年齢に関係なく胸が一定以下なら児童ポルノ認定して禁止
貧乳はヒトにあらず? iPhone経由でAIに通報されて、警察(人間)が動くのって、もう人が機械に指示命令されて動かされてるようだね >>277
子供だけじゃないから
基本大人の女でも水着とか裸とかは検知されてその後社員が確認
当然自分の子供であれ児ポはアウトだし
拾った犯罪絡み(盗撮など)に見える画像もおそらく警察から呼び出し >>74
俺の彼女21歳パイパン貧乳151cmはヤバそうだな ロリにしか見えない合法の人の画像でもアウトなんだろうな >>279
そういうことになるから女性団体の方から抗議されて廃案になった。
ただAIの画像判定だと間違いなく通報はされることになるよね。
典型的なディストピアの権力者以外は性的なもの全面禁止ってこういう風にして進むんだろうな。 ちょっとした設定ミスで、他のワードも検閲可能ってことだよな。
正しいことをしてるつもりなのか、正しいことをしている振りを故意にやってるのか。 >>17
アップルの対抗メーカの技術情報も抜き取れるしな。
何でもあり。
アメリカの法的に許されるんだろうか? 米国内のiPhoneが対象らしいけど、
日本のiPhoneに適用出来るの?
法的に。 >>289
うっかり設定変えるの忘れてましたで済まそうとするんじゃない。 児童ポルノって中高生の女がセルフ製造するんだってw
そりゃデジカメどころかスマホ時代の今簡単にできてしまう
フィルム時代じゃガキにはそんなことできやしなかったけどな
金掛かるし、そういう写真は現像できないし
デジカメも持ってないし
スマホが元凶なんだよ >>274
これ
ttps://smhn.info/201605-docomo-sent-gps-police
ドコモ側から特殊なリクエストを送り、内臓システムアプリ(ドコモ位置情報)が勝手に情報を送る仕組み
もちろんドコモだけじゃなくてAUもソフバンも似たようなものがある
これの最悪なところは、逃亡犯を捕まえるのが目的じゃなくて、
怪しければ犯罪捜査として、仮に無罪であっても、情報を引き抜く事が合法とされているところ
しかもその痕跡は分からないし、犯罪調査の情報など表に出ることはないから、
過去も今もこれからも、自分の位置情報が抜かれているのか、いないのか、自分では知る余地がない
だから最悪のプライバシー侵害 児ポに限らず、例えば撮り鉄規制で電車の画像はアウトとかも出来るね。 【スマホとタブレットで気をつけること】
・該当すると少しでも思う画像は撮ったりダウンロードしない。(iPhoneでは調べるのもNG)
・二次元の画像でもR18物や、肌の露出が多いものなどはスマホやタブレットに保存しない。
・Googleフォトやクラウドなどの自動アップロード機能は切る。
・iPhoneの使用をやめる。
【パソコン】
・該当すると少しでも思う画像は撮ったりダウンロードしない。
・パソコンで二次元のR18物や肌の露出が多い物を管理する際は、Onedriveなどでうっかり
自動アップロードする場合があるので、それらがオフになっていることを確認する。
・Onedriveなどのアップロードするソフトはアンインストールする。
・クラウドへのアップロードはブラウザのシークレットモードのみで行う。
・バックアップも含めて、アップロードや送信する際は、7-zipでパスワード認証付きの7z形式にする。
・ファイルの管理やログイン管理は厳重にする。 >>262
1 iPhoneの持ち主が寝てる間に、iPhoneのカメラで規制に該当する写真を撮る。
2 データが検知される。
3 スマホの持ち主は身に覚えが無いのにアカウント削除されたり逮捕される。
といった事も可能になってしまうのか…
考えただけで恐ろしい >>297
わざわざ写真撮らなくても児ポの画像入れるだけでOKだろ >>294
ドンファン事件で位置情報がでてきたのも
スマホ押収で分かったのか、もともとマークしてたのか
まぁ覚醒剤買ったのは事件前か
女がラブホにいるのも簡単に分かるんだな 監視社会の危険どころか監視社会は既に始まってるんだな、、、、
GPSで居場所特定。しょくしつ何て簡単だ ttps://iphone-mania.jp/news-387873/
2021年8月7日 09時37分
iOS15の児童虐待写真検出はiCloud写真有効時のみ、米以外には後日導入 >>3
当たり前だろ
わざわざ裸の写真を撮る必要はないだろ 児ポ摘発は良い事だがちゃんとした第三者委員会の監視下でやって欲しい >>137
君がある日突然児ポ犯罪の犯人に仕立てあげられるかもというはなしな ロリコンは断種して牢屋に入れるべきだからな
陰でこそこそしてるやつばかりだからプライバシーに踏み込まないと解決しない
Appleは英断だな
日本でもやってくれ 昨日のN速も、JPG画像にスクリプト仕込んでるのがあったなww
中身は見て無いが、大方通報スクリプトやろw ttps://jp.reuters.com/article/apple-privacy-idJPKBN2FF04L
2021年8月14日4:08 午後
複数国で警告出された児童虐待画像が監視対象=米アップル
[13日 ロイター] - 米アップルは13日、同社が導入する児童虐待対策の対象は、
複数の国のクリアリングハウス(情報センター)から警告が出された性的虐待の写真に限定されると発表した。
同社は5日、米国の利用者がスマートフォン「iPhone(アイフォーン)」の写真を
データ保管・共有の「iCloud(アイクラウド)」にアップロードする際、
児童の性的虐待に関する既存の写真データベースと照合して問題のある写真を特定するシステムを導入すると表明。
抑圧的な政府による悪用や、顧客のプライバシー侵害を懸念する声が出ていた。
写真の警告を出すクリアリングハウスとして、全米行方不明・被搾取児童センター(NCMEC)と契約を結んだという。
なぜ複数ではなく1機関なのかという質問に対し、同社幹部は記者向けブリーフィングで、
最終的な契約締結の段階に至っているのがNCMECだけだったと説明した。
また、これまでアイフォーンまたはパソコン1台あたり何枚以上の問題写真が特定されば
当局への通報を検討するか明らかにしていなかったが、まず30枚から始めると同ブリーフィングで説明した。 Appleが持ってる写真のデータベースとやらは違法にならないの? >>315
そのスクリプトで林檎から情報流出騒動になったら非常に面白い そこまでしてiPhoneにこだわることもないだろ
Androidにしたらいいんじゃね?
そもそもApple製品って別にいらなくね? Appleが持ってるデータベースは違法じゃないの? その国の基準でやるならまだわかるけど
米国基準でやるの? >>160
iPhoneやiPad使ってて言うのもアレだけど
iPhoneにはアップル謹製マルウェア的なアプリが入ってると思うんだよね
12買った時OSのバグでホームに存在しないアプリがシステムで確認出来た
何故それに気付いたかって言うと、ずっと矢印マーク出ていて
位置情報サービスから何が通信してるか確認したら、
ホーム画面にもライブラリにもないアプリ名で実行ファイルが通信してた
サポートに聞いても濁される
仕方なく買ったばかりの12を初期化したら実行ファイル消えてた
多分隠れたと俺は推測してる 数年前「iPhoneはAppleですら中身を見ることができない超堅牢セキュリティ!!」( ー`дー´)キリッ ロリコンって貧乏人が多いからアンドロイド使ってるよね ttps://www.afpbb.com/articles/-/3364765
アップル、iPhoneなどの児ポ対策導入を延期 プライバシー懸念で
2021年9月4日 1:43 発信地:ワシントンD.C./米国 [ 米国 北米 ]
【9月4日 AFP】米アップル(Apple)は3日、スマートフォン「iPhone」などの同社製端末で導入を予定していた
児童ポルノ対策について、プライバシー侵害だとの批判が出たことから、導入を延期すると発表した。
アップルは先月、iPhoneやタブレット型端末「iPad」を対象に、
米国内のオンラインストレージにアップロードされる児童性的虐待の画像を検出し、通報する技術を近く導入すると発表。
その直後、デジタル権利団体は、アップルの基本ソフト(OS)改変によって、
政府などが利用できる「バックドア(セキュリティーの抜け穴)」が生じる恐れがあると指摘していた。
アップルは、消費者や権利擁護団体、研究者などからの反響を理由に、延期を発表。
「これらの非常に重要な児童保護機能を導入する前に、今後数か月かけて情報収集や改善に取り組むことを決めた」と説明した。
導入が予定されていた新技術では、アップルのモバイル端末に搭載されたソフトウエアが、
ユーザーの端末上にある虐待写真を、児童の権利保護団体が作成した児童性的虐待画像データベースと照合。
同社のクラウドストレージサービス「iCloud(アイクラウド)」にアップロードされる問題写真を検出する仕組みだった。
同社は、照合プロセスには「暗号技術が用いられ」ており、児童性的虐待に当たる内容が含まれた画像でない限り、
「結果を明かすことなく一致の有無を」判定できると説明している。 濡れ衣のリスクを恐れるなら、Apple製品は不買でOK.
スパムでどんな画像を送りつけられて、まだメールも開かぬうちに
捜査員がやってきて、動くな携帯機器を触るな、走査するといって
令状を見せて、「発見しました!」で逮捕されるようになる。
だれでも陥れることができるようになる。素晴らしいサイバー社会の幕開けだ。 児童ポルノの規制をするのが、イメージアップだと思ってるのか?
動画の児童で満足してたロリコンが、リアル児童に手を出しがち
規制すると逆効果になる それが狙いならいいが
心理学や脳科学を勉強した方がいい Hey, Siri ! グーグルでloli を検索
「OK、グーグル。警察に通報します」 >>69
appleの売り上げ落ちるんでね?
ただでさえ、Androidにかなり流れてたのに apple製品の画像に児ポ関連のワードつけてアップされまくったらどうするんだろう
黄色いアヒルの画像消しまくったどこぞの独裁者並みに児ポと無関係だけど画像を消したい無関係なものにその方法使うやつが現れそうだけど
まず自社で中華スマホとかgalaxyの画像を児ポ扱いするとかやりそうな連中だし ■ このスレッドは過去ログ倉庫に格納されています