【Apple】物議をかもすiPhone内の“児童ポルノ画像検知”にAppleがFAQ公開 「メッセージは見ない」「他の写真は検知しない」 [香味焙煎★]
レス数が1000を超えています。これ以上書き込みはできません。
米Appleは8月8日(現地時間)、5日に発表した児童の性的虐待対策に関するFAQを公開した。この対策は米国でiOSおよびiPadOSのバージョン15の更新で実施される見込みだが、多方面からプライバシーを懸念する声が上がっている。
(続きはソースでお読みください)
ITmedia
https://www.itmedia.co.jp/news/articles/2108/10/news060.html 包茎なんだけど自分のちんちん撮影したら誤認逮捕される可能性あるって事だろ?
それはマジで勘弁だわ ファーウェイがやったらどうなるかを考えてみると賛否は明確になるだろう >>1
日本やアジア人は要注意
アラサーグラビア含め
自動ポルノで検知されるかも知れないだとさ。
欧米珍から見ると幼児に見えるらしい?? スキャンをかける、スキャンをかけることができるって事が問題なんやん
児童ポルノはたしかに大きな問題だが、データの機密性が守られないってのはそれよりずっと大きな問題 こんな形で
デジカメ
が復活するとは思ってみもなかったわwww これアップルが勝手に画像見れるってことじゃん
やっぱ林檎製品は気持ち悪いなぁ これって、中の人が人力で検閲するの?
つか、中国みたく普通に人力で検閲すればいいのにな 普通に撮影しただけの子供の写真とかバンバン引っかかるんだろうな こんな建前信じるピュアな奴は大人になる前に死んでるだろ いやいやさすがにな
ロリ画像探すのに全データチェックしてるはずだから怖いわな 息子のムスコがバイキン入ったかなんかでパンパンに腫れたのを記念に撮影した画像があるんだが、それも児ポになるのか? >>24
A.Iで黒人の識別とか未だ出来てないからね カメラで撮影した指紋を認証に使える世の中だし
プライバシーというよりセキュリティ問題じゃないの アップルの担当部署はユーザー所有の全ての児ポを閲覧できるのか、すげーな まあいずれ量子コンピュータでネット全部検閲するようになる >>29
まだ、ゴリラと黒人女性の区別付かないのか? 検知しないってそもそも調べないとわからんのに何言ってんのって話だな >>1
日本人は子供、黒人はゴリラ
と認識するんでしょ? スマホ内の情報全部チェックするわけだからアップル社にスマホ内のデータは全部見られているってことだろ
AIが判断してると言っても児童ポルノと判別されれば最後は人間がチェックする
児童ポルノだと思ったと言えばどんなデータも抜けるじゃん >>32
実質的にすべて覗けるから
仕事が絡むようなところにはもう使えないな
セキュリティーに穴が空くってこと
メモ代わりに気軽に写真を撮ってどうこうとかお手軽な手段だけど全部覗かれるという事 児童ポルノを全滅させるために全部検閲しますよでいーじやん このデータチェックする仕事はどこで募集していますか? 海外は絵でもアウト判定になる国があるからその辺どうなるんだろなwww 外国からしたら日本の女性はみんな子供に見えるから、特に日本で検知されまくりそう
身長の低い童顔の女性とか自分の裸撮影したらアップル社員に見られるってこったな 彼女とのハメ撮り写真を勝手に覗き見されるなんて許さないぞ! 日本人だと父親が子供と一緒にふろに入ってる写真もってるから、すぐにつかまっちゃうねw >>46
そういうアクションそのものを嫌う人は一定数居るよ
「お前のことは全部知ってるからなww」というセリフに嫌悪を抱くのは当然の話 野菜とか果物を組み合わせて紛らわしい画像にしたやつとか
判別できるのかな? この件で日本のスマホにおけるAppleのシェアが、明確に落ちたら笑うわ 男の赤ちゃんのちんこが写ってる写真は児童ポルノですか? >>56
普通そんなもん撮らんやろ
万が一の流出考えたら 収集したいだけなんだよこいつら
児童ポルノ反対!とか叫んでるやつらが一番のマニア愛好家なのは最早常識 >>他の写真は検知しない
これ多分、無理だからw
ほんとにそれだけを正確に把握できるなら
今のSiriがもっと超性能になっていていいはずだろw 2次絵とか3Dとか成人の合法ロリとかちゃんと見分けつくんだろうか うちの娘を風呂に入れてる写真も駄目なのかい、まあスマホで撮らなきゃいいか 自分の子供の写真もアウトなの?
本人の子供の頃の写真とかも引っ掛かるなかな >>12
中国で売ってるってことは
もうそういう機能がついてるって事で。
で、他の国ではこう使おうかって
感じなんじゃないかな。
残念だけど 欧米の基準で判断されるからな
アジア人だと成年でも児童ポルノ扱いになる可能性がある ファーウェイの検閲なんて比にならないくらい危険じゃん >>75
女なんて何も付いてないんだから問題ないだろ
男はちんちんあるけどな >>74
どう考えても付けないだろ
区別する必要ないくらいに思ってる >>74
そもそもアメリカはロリ絵も児ポ扱いだからダメだぞ 日本国内だと通信の秘密を保証する憲法規定に違反する内容だ。 自分の娘の行水してんのをスマホで撮っても逮捕されるの? これ、アップルが個人情報わ抜き放題ってことか?
クレジットカードとか、口座情報も、余裕で見れちゃうの? 所詮AIは白人が作ったデータを元に学習してるだけだからな
無意識下にある差別がデータに蓄積されAIもそれを学んでいる状況 Siriに聞いたらすぐに特定のメッセージ探し出すね
それって前もって調べてるからだろ? ようはポルノがアウトなんだよね?
娘の水着姿もアウトならiPhone辞めるわ…… >>81
二次元を児童ポルノにしている国もありそうだしなるんじゃ無いの >>84
人妻マニア熟女マニアの俺に、死角はない!(`・ω・´)キリッ 顔認識でもすげぇと思ってるのに
ポルノ認識かつ年齢までとは・・・
マジなら凄すぎる これからはデジカメに回帰するかもな
1型コンデジいいぞ >>90
画像として残しているものは実質全部できる ロリコン仲間のやりとりも全部当局へ通報して問題ねーよ
変態共は根絶やしにしちまえ 熟女好きだけどエロ関連はアンドロイドスマホ使ってるわ >>90
そんなもん最初っから当たり前の話なのではw >>90
そもそもアップルのアカウントに
クレカ紐づけてる人多いもんな 2歳の娘と一緒に水遊びした時の写真が
消される予感がします 甥っ子が子供の頃、甥の携帯にちんこってフォルダがあって
毎日自分で写真撮って記録してた、母親(姉)が気づいて削除したけど
子供が自分自身を撮影したものはどうなる Appleは事前告知で人道的に実施。
泥は黙って実施。
ただ、どちらも開始は黙って実施だから、あまり変わらないがね。 >>81
国によって分けて判断するなら含まないけど向こう基準だと含まれる
>>95
アウトだぞwww >>107
クレジットカードナンバーとかありとあらゆるものが覗かれるけどな スマホ時代の転換くるで
キャノンソニーあたり買っとけ笑 スマホの中身なんて全部見られていると思って使うしかないよ >>104
データを送信してるかどうかは分からないが
もう既にバックグラウンドでデータを閲覧してる
ユーザビリティのためにデータベースを作ってると言ってるけど… うちの子が初めて風呂でスイマーバした時の写真はもう見られなくなるのかな 子作り中出し写真もアウトなの?
生命誕生の神秘を知る画像なのに 良いじゃん
これでキモヲタはiPhone使えなくなるし
android見たら犯罪者と思えみたいな感じになるし 実質的にカメラは使えなくなるんだよね
スタンドアロンな中古スマホを持ち歩くのが写真を撮るには一番だね >>112
水着がダメとか頭おかしいわ
ポルノとかパンツはアウトだと思ってるけどまあiPhoneやめてAndroidにするしかない。 これまでもやってたとおもうよ
AppleもGoogleも >>120
欧米のセンスだと親だから特権持ってるなんて感覚はない
なにしろ児童ポルノ製造の数割に親がからんでるって話だし は?AIは全ての画像を閲覧して児ポかどうか判断するんだろ?
AIは人じゃないから問題ないと? ファーウェイの俺は高みの見物だわw(。・ω・)y-゚゚゚ 街中の防犯カメラを増やすと文句を言うあの民族みたいですね 小学生以下なら分かるだろうけど16才と18才で見分けつくのかな AIで親や祖父母が撮影した子や孫の写真とか
小児科医などが医学的な記録のために撮影した写真とかは
不適切じゃないって区別できるんだろうか >>118
コンビニのコピー機なんかも実質そうなんだけどな >>85
ipad使ってるイラストレーターはアウトだな 欧米は、ここまで監視しないといけないってことなんだろうけど
やっぱり病んでいるよな 児童ポルノは犯罪だからな。
これで困る奴は心当たりがある奴。 児童ポルノって言葉に違和感がある
普通の感覚じゃガキの裸に性的感情は抱かないから
ガキの裸は本来ポルノじゃないよな
児童ポルノって言葉はガキの裸に性的感情を抱く人間の感覚に合わせた言葉なのか? セキュリティソフトはすべてのデータをチェックしているからね
ネットからダウンロードしたデータなら誰がそれを最初にアップロードして
保有しているかすべて把握している
すべての情報はサーバーを運営しているグローバルIT企業に集まる Apple社員「これはいかんなぁwwwこの写真もアウトだなぁwwうわ〜これもいかんなぁwwww」 siriってgoogleはおろかalexa以下のクソ性能なのに児ポだけ検出なんて無理だろ え、icloudと写真同期なんてしてんの?
なんで?サーバに写真あげてどうすんの? 元記事みたけど、写真を保存するだけで勝手に通報されるのかw 小学校の娘いる家庭はiPhone辞めるしかないね。
データだけいまのうちにバックアップしてAndroidに移行よ。 ってことはPCでもやるのかな
Windowsだと凄いことなりそう 風呂上がりのミルクローション塗ってる様子もダメなのか? まあアイフォンなんて時代遅れのデバイス使ってるのなんてサヨクだけだろ。諦めろパヨチン。 >>120
アメリカは男親が娘を風呂に入れるだけで逮捕される国だぞwww
自国感覚で一緒に風呂入ってた中国人が捕まってたし これはどういう仕組なんだ?スマホ内部の画像を送信してアップルのサーバーのAIが判断するのか
スマホに組み込まれたAIアプリが判断してその画像を判断するのか
前者なら無駄に通信が増えるし後者なら電気と処理能力を食うし
自己満足の社会貢献なんてどうでもいいから
利用者に負担を押し付ける前に自社の利益を消費者に還元しろよ お前らのスマホ盗撮写真が林檎で照合されて警告されるのだなw その画像データを収集してどうすんの?
どの国より潜在的に児童性犯罪因子あんのかって位ひどいじゃん。
子供と寝室を分ける理由が親がレイプするからってなんだよ。朝鮮みたいな風土だな。 >>145
とうじょうじんぶつは
みんなじゅうはっさいいじょう
だからセーフ >>138
Googleはフォトにエロ画像アップすると削除
下手するとアカバンってアナウンスしてただろ >>163
1枚でもアウトなら
全部見られることになったらしい 欧米人から見ると日本人の女は子供のように見えるから
マン毛剃った貧乳の女を誤検知しちまうんじゃねーの? >>104
チェックと警告するのは以下
・12歳以下の子供がメッセージで送信しようとした時
・iPhone内の写真に保存してある時
・iCloudに保存してある時
ってソースに書いてある 娘と初めてのお風呂一緒に入った写真とかもアウトだぞw
娘がいる家庭はフォルダチェックしとけ。 そんな写真ないしやましい事は全くないけどなんか気持ち悪いな 次の機種変でAndroidにしよう アメリカだと赤ちゃんに添い寝するだけで変態扱いだからな スマートスピーカーも家庭内盗聴器だからね
そのうちDVの検出とか義務付けて
すべての賃貸住宅に設置されるようになる Androidだけど過去に撮った何でも無さそうな画像でもサムネ真っ黒で開けないファイルがいくつかあるな。 pixel6の自社製AIチップも
実は同様の対応を強化する為だったりしてね 自粛生活で自宅プール三昧だから自分の子供のパンイチや全裸の写真ばっかりなんだけど >>155
それ以外の物もしっかり覗かれるという視点が無い奴ってかなり想像力が欠如しているよね >>156
一理ある
通話や文字入力、位置、アクセスするWebなどを総合的に監視してロリコン判定したほうがいい
ロリコンセンサー機能搭載 iphone内のローカルストレージがどうして検索されるんだ?OSが検知するのか? >>182
でもGoogleってそもそも情報収集の会社やん? アップルって要するに善悪の知識の木の実を食ったってことだろうからな
悪い奴らの集まりだよきっと
フリーメイソン、イルミナティ、かもね
監視資本主義によって、全人類の日常行動のありとあらゆることを24時間体制で監視掌握したい欲望があるに違いない
「児童ポルノ画像検出」っていうのはそのための言い訳にすぎない >>183
それはいいんだけどそれを世界に押し付けるのは基地外だろ
黒人差別もアメリカの国内問題なのにグローバルスタンダードみたいに捏造しやがって データが中華サーバーにあって抜かれるLINE
スマホ端末にあっても勝手にアップロードされるiphone
iphoneでLINEとか全裸で歩いてんの? >>166
MSはすでに児ポ自動検出プログラムを作ってるから
One Driveの公開フォルダに児童ポルノを置くと通報される危険性がある
Google Driveでも同じようなもんだろう icloudの写真はAppleでもわからない様に暗号化しますとか謳ってなかったか
だから暗号化前に全部見ますってお前それ暗号化の意味無いだろと
なんかこの施策やってからなぜかそういう写真が大量に出回りそう アフリカ系をゴリラ判定したくらいだから
相撲の画像はアウトだぞ 「児童ポルノを撲滅するために検閲します」って言えばいいのに妙な言い訳するってことは何か後ろめたい事やろうとしてるんじゃないの? 他の写真は検知しないもクソも全部の写真見ないと判定できないだろw iPhoneに炸薬を仕込んでおき、ロリコン判定したら爆発させれば、ロリコンを殲滅できるのでは? >>165
検知されても違法を構成しないならよくね? どうせハンターバイデンとかオバマだったら免除されるんだろ
恣意的に運用するに決まってる そもそもAppleは、人間じゃなくAIが見て判別するんだからいいだろ、って考え方みたいだが、
みんなはAIになら差別されてもいいの? >>198
AIを教育するためにどれだけたくさんの画像を集めたのかね 日本の気持ち悪い性犯罪者全員逮捕して欲しい
アメリカ企業に逮捕権与えて捕まえてもらえばいいのに
日本の性犯罪は世界最悪水準です
児童強姦ポルノ製造の大部分が日本で製作されています
日本人の男は性犯罪しても男尊女卑の司法で守られて社会的制裁を受けません
痴漢の大半は捕まらずに犯罪を繰り返します
それほど優遇されながら女性を逆恨みして幸せな女性を殺してやると暴れます
日本の警察が機能しないなら外国に取り締まってもらいたい
性犯罪の調査と検挙はアメリカが管轄してほしい
日本人はもう信用できない 信用する理由ないし
真っ先に開発、取引関係を盗みに来るだろうな
著名人狙い打ちはもちろん
ラフにメッセージをAI総当たりだってあいつらならやれるだろ アメリカはディストピアだな
まさに監視社会っと言っても良い
まぁペド野郎は死ねと思うけど
ウォール街の奴らほぼ検挙されるんじゃないのw クラウドにあげるときに警告するなり削除する分には別にかまわないんだよ
今回他と違うのは本体に保存しているだけで警告するって事は常時iPhoneは覗かれているって事だぞ HUAWEI「見るでー^^」
「絶対許さん!制裁!!!」
Apple「見るでー^^」
「^^」 肌色の量で判定するなら
全身服着てるが股間部分だけ露出させてる場合は
引っかからないことになる アメサヨクノの児ポに対するリアクションは基地外レベル そりゃ全部見なけりゃ検知も出来ませんし
どう言い繕ってもプライバシー侵害しなきゃ無理な芸当なんだから素直に認めりゃいいのに >>209
テロ関連のワードを
タイプしたり送信したら必ず検知されるらしいし >>75
お前の娘じゃカワウソとか河童と間違われるんじゃね? >>180
俺もピクセル使いだけど多分グーグルの方が酷いと思うぞ
音声アシスタントを起動してないのにかかわらず
日常会話で喋ってた事がオススメやらニュースやらで出てくるw 「日本の漫画を潰す気?」KADOKAWA新社長の“表現規制”推進発言に危機感
過激すぎる水着グラビアについて議論が交わされていたのだが、夏野氏は
「グラビアより過激な漫画が、日本には溢れている」と提言。続けて「よく
GoogleとかAppleの審査に通らないんですよ、日本の漫画とかって。だからそれも
含めてどこからは公共で良いんだけど、どこからはダメみたいなものを、
もう一回このネット時代に相応しく、ちょっと基準を作り直さないといけないの
かなぁ、っていうのはすごく感じます」と語っていた。
また、夏野氏は現状の出版業界が自由派であることを明かしたが、そのことに
違和感を抱いているようだ。どこまでが公共でよいのか、ネット時代にふさわし
い新たな線引きを行うべきだという。
たしかに漫画をより広く売り出すためには、性的な表現をある程度規制しなけれ
ばいけないのかもしれない。しかし、GoogleやAppleのいわゆる「GAFA基準」
はかなり厳しいことで有名だ。そのため夏野氏の発言を受けて、表現の幅が狭
まってしまうことを危惧するクリエイターも少なくない。
夏野氏の“規制推進”発言に批判が殺到
実際にGoogleやAppleの規制は、どれくらい厳しいのか。たとえばイラスト
レーター兼小説家の47AgDragon氏は、ツイッターで
《正直、もう最近は水着表現もアウトになり始めてて、更にいうと、
胸の谷間を見せることそのものがアウトになり始めててデコルテより下は
アダルト表現扱いってなり始めてる》などと現状を訴えていた。 自身の子供とお風呂入ってる画像でも誤検知とかしそうだな >>213
キンタマ握ってコマにするには都合いいじゃん >>201
それって、児ポを発見するために他の写真も見ますってことだからなあ
はっきり言っちゃうと、エロ写真愛好家とかが文句言うんじゃないの? 所持者っていうか、自撮りした本人が一番引っかかりそう
林檎「お宅の娘さんがHentai写真を撮ってネットで乞食にシコらせているようです」
親「ひぎっ」 マイクロソフトアップルグーグルが既にあらゆる情報握ってるのはもう常識だろ
だが今回それをとうとう正式に利用すると言い出したからな
もうこいつらが世界の政治を左右できるし口を出すって事だろ
むしろ日本はガラパゴスジジイばっかで思ったようにいかない可能性あるが >>214
プライバシーも何もあったもんじゃないな
Appleのデータ保護体制全部うそだったのかと
実はiPhoneのパスコードとかも筒抜けなんじゃないかと >>221
Androidに比べてプライバシー保護を売りにして広告打ってるから
それを否定すると売れなくなるのよな。
正直今回のはやりすぎなので止めてもらいたいが。 デジタル通信機器使ったら
プライバシーは諦めないとな >>1
うちの子が川で遊んでる画像と動画も消されちゃうんだろうなぁ クラウドだけで本体までは見ないでしょ
児ポなんて持ってないけどここまで見るなら怖い >>203
抹殺対象のiPhoneにロリコン画像を送るだけで暗殺できてしまうのか
誰でも簡単お手軽にできるな >>41
量子コンピュータをなんだと思ってるんだw >>16
むしろ保存してるほうが気持ち悪い
意識高い人たちに使ってもらいたいだよ そんな素晴らしい検閲技術があるのかね
設定変えたら何でも選び出せるかね >>11
クラウド上は以前から&どこでもやってる
ローカルのフォトブックも検閲対象なのが問題 >>10
ホリエモンのヌードグラビアをネタで保存しているけど、性的搾取されている男児の写真に認識されてしまうのかもしれないのか〜
困ったな〜削除するのもったいないな〜 ほんとそこら中のosがトラッカーだらけで気持ち悪いよ
Ubuntuですら無ではないし >>241
本体まで見るって事だから問題になっているかと
クラウドとかならすでに他の所でもしている >>1
アップル「iPhone内の全てのデータをいつでも抜けますよ♪」
内部告発を疑うレベルw >>249
ローカルはOSがやるんじゃないかね
顔認証するくらいだから簡単なんじゃね? >>6
普通にiPhone人気落ちてるみたいだけど急落したらまあお察しだねw >>240
消されはしない
犯罪者として通報されるだけ クラウドではなく、デバイスそのもののデータ七日。そりゃアカンでしょ。中華製より酷いんじゃ内科医 そもそもiCloudで写真の同期なんて言う迷惑以外の何ものでもない機能オフっておけよ
あれ便利に見えて余計に面倒になる最悪だから >>72
aiで娘の顔と他人の顔を判断してかもしれない エスプタイン島に招待しなくても奴隷くん大量ゲットだぜ
何故か有能な奴ほど特殊な性癖持ちだからな、今度一万円札になる渋沢くんは妾十五人以上いたらしいし
フェミのみんな、新札変わったらわいの通帳に渋沢くんが書かれた紙をわいの通帳に捨てていいからな >>248
もちろん
軍事機密だろうが要人のプライベートだろうが思うがまま
一企業が個人のスマホの検閲とか、ありえません ニヤニヤしながら検閲してこいつはけしからん当局に通報だシステムですねw
スマホ使うってのはそういう事だw >>243
おまえ児ポ法改正のたときもそんなこと言って反対してただろ
何年も経つのに実際にそんな事件起きてないじゃん 子供とプールとか海に行った写真とかも検知されんのかな
痴漢冤罪みたいにロリショタ冤罪みたいになりそうな 勝手にクラウドにアップするのがバレたので中身見ちゃう>< 日本は性犯罪者に甘過ぎ
再犯率が一番高いのが性犯罪です
初犯で去勢すればいいと思う
強姦したら次は強姦殺人になるでしょう
更正とかより厳罰化すべき
アメリカなら一生涯刑務所になるのに日本だとすぐに出所してくるのはおかしい
性犯罪被害者を差別してると思う 江頭2:50さんのYouTubeから「乳首NG」について考える
乳首をさらしたらダメ!
「江頭2:50さんがYouTubeを始めたと知って、最近チャンネル登録したんです」
(Aさん)
4月1日、江頭さんは「江頭2:50が物申す!」と題した新型コロナウイルスの感
染拡大防止を訴える動画を、笑い一切なしで投稿して話題となりました。
15日には、チャンネル開設からわずか2か月半という短い期間で、登録数200万
人を突破しています。
「テレビでお見かけすることが少なくなったなぁと思っていたんですが、
その動画を見て私初めて知ったんですけれども、男の人でも動画に乳首をさらし
たらダメなんですね! 女性ならわかるけど、男性でもダメというのは初めて知
りました」(Aさん)
江頭さんは胸に白いテープをバッテンに貼り、その上に大きくNGと書いて乳首
を隠しています。
「プロレスだって相撲取りだって、上半身裸でやってますやん。ペケ打ってないよ」
と、納得がいかない様子のつボイ。 >>21
そもそも撮影すんな
昭和中期のテレビじゃないんだから >>263
なんで撲滅すべきだろ
嫌ならアンドロイド使え
そのうちgoogleもやるかもしれないが 子供が自分の裸撮ってどっかの変質者に送ろうとしてるものとかが検知出来るなら良いことじゃん icloud同期切ってるわ
あんまり便利じゃないし
カレンダーくらいしか同期してない >>262
いつの間にか容量使い果たして、何度も金出せダイアログが出てくるからな。 婆ちゃん秘蔵の孫の画像もチェックされてんのかと思うとなんか寂しいな 自分の子供とのプールや海はgoogleにうpできないからローカルなのにiphoneローカルもだめなんて('A`) 「児童ポルノ画像検出するためです」と称して、すべての写真をApple社がチェック可能にする、これが目的だよ
GAFAは全部つながってて、情報を持ち回りしている
インターネット上で行ったことはすべて向こうに筒抜けと思ったほうがいい
アメリカってのはフリーメイソンが作った秘密結社の国
ぜったいに信用してはならない ジュニアアイドルの水着写真や大人のヌードまで引っかかるだろきっと ファイルを暗号化しても
それを無効にして
スキャンしてくるという話を聞いた
やましい気持ちになるファイルを所持してる人は
クラウドから他に移した方が良いかもね >>278
それをなんでAppleがやるんだよ
親がやれよ そもそも、個人のスマホってパスワードとかで保護されてるんじゃなかったっけ?
それ言い出したら、クラウドの検閲とかもそうなのかもしれんけどさ 愛フォン捨てますかそれとも人生
やめますかってコマーシャルみたいやな 現状情報搾取されたくなけりゃガラケーすらもう無いし
家電とFAX(笑)でやるしかないからね
技術後進国はセキュリティ対処の必要がなくていいね ファーウェイは情報抜き取って危ないとか言ってる人いるけど、
アップルは、すべての個人情報、カード情報、会社の勤務情報、アカウント情報、
登録した利害関係者の情報を勝手に全て抜き取ってる
おまけに今はCOVID情報まで勝手に抜き取り
危ないのはファーウェイではなくアップル
2年前の変なチップ騒動もファーウェイのものではなく実はアップルの疑惑出てる 日本製がなくなったのは監視網の穴になってしまうからじゃね >>284
勝手に「チェック」して「通報」
ヤバい 日本のゲームって引っ掛かりまくるんじゃないの?エロゲじゃないけどエロ目なキャラとか水着になるじゃん? >>1
ちょ、まてよ!
「他の写真」か否かの判定はおまえらかするんだろ?
毛が生えてるか、胸が膨らんでないか、とか
そこをくぐり抜けた成人の判定はどうするの?
おまえらが、見て判定するんだろ?
つまり、それは検閲行為なんですよ これで児童売春が減ればいいけど減らないだろうな
覗くだけで
児ポかなにかにかこつけて支配したいだけ >>269
いや児童ポルノ画像検知には反対してないがな
ただボケにツッコミ入れただけだぞ何言ってんだ >>294 知ってる
個人情報を全部抜き取る装置なんだから
悪いことしなければいいだけ 今までは軍がやってたことを
民間企業が公言してやり始めるってことだな しかしさ、こんなことしても本命のロリコンはフィルム写真に逃げるだけで全くの無意味だよな >>277
無差別の警察行為を称賛するような奴は
中国に行け。おまえの理想郷だぞw 精度の問題なんだけど
10代に見える30歳はアウトなの?
30歳に見える17歳はセーフなの? いつか端末でエロサイトすら見られなくなるときが来るんだろうな。 >>294
それは中国に見られるのが嫌だってのがあると思うよ。
中国の法律が結構厄介だしな。
アメリカのほうがまだマシといった感じで。 まぁappleは前からこうだよね
女のコ出てくるゲームアプリで水着イベントとかあって、際どい水着すぎると修正させられたりして
ファンキルのシェキナーお前とか おまえら、アンドロイドに逃げる気じゃあないよな?
乗るしかないだろ、このビッグウェーブに iCloudが悪質だなあと思うのは、何度も利用拒否してるのに利用させようとトラップを仕掛けてくること
プライバシーが基本的人権だとほんとに考えてるのか甚だ疑問だ そもそもGoogleのような検索サイトの会社がなぜ世界トップの収益を上げているのかよく考えたほうがいい
理由は個人情報を売ってるから
Googleで検索した情報は個人と結び付けられてすべて保管されている
大切なのはGAFAのようなIT大企業は裏でつながっててその情報を共有していること Big Apple is Watching YOU! Googleは写真でもメールでも10年前からやってる >>315
携帯押収された時に永遠に参考資料として保管されるだろう 息子が初めて歩いたのがお風呂入る前の全裸の時で、で咄嗟に動画撮ったけど消されちゃうってこと? 企業秘密や政府自治体関係者もアップル製品使うと中国並に抜かれてやばいってことじゃん クラウドにエロ画像やニャンニャン写真置いとくのがマジで理解不能なんだが
最近の若者はそういうの全部ひっくるめて思い出としてアップロードしてるのか その気になれば今でも見れるのだろうし見られて困るものは保存しない方が良いのでは… LINEならLINE、アップルならアップル
単一の問題だと考えてる馬鹿は大人しく搾取されとけよ でもポルノ画像を検知するために膨大な数のポルノ画像を学習させたんでしょ
必要悪なのでは とりあえず写真はスタンドアロンで持ってるのが一番だね 児童ポルノを検索するにはiPhone内の全ての画像を確認する必要がある
他の写真を見ない訳が無いw これを機にiPhone使わなくなるだろな。Android一択になる。 端末チェックする前に
ネットで公開されてる画像に警告送れよ
そっちのが悪質やんけ だいたいネット見てるだけで
お前らの欲しがってるものが広告で表示されるし >>330
子供がプールで遊んでる写真を自動でフォトに同期されてBANされてる奴いたなぁ 全データチェックせずどうやってポルノだけを判断するのよww 裏で出回ってる全く同じ画像とかならまだしも、自撮り画像とか全部個々で目で見て判断するしかないやん >>336
アホだから勝手に上がってるの気付かないだけ >>325
泥から林檎に乗り換えはいそうだけど、あんまり逆って聞かないよな >>343
そう、フィルタを変えれば違うものもヒットするってことだからな 昔、デジカメ内蔵メモリに自分のチンコ撮って入れてあるの忘れて、
新しいデジカメ買ったときに知り合いの女の子にチンコ画像消すの忘れてあげちゃったんだけど、
今どうしてるかな。 いやgoogleもないわ
デジカメ+ガラケーでおk Appleの言い分
> Appleによると、写真をスキャンするこのCSAM(児童性的虐待素材)対策機能は、「既知のCSAM画像と一致したもの以外の写真に関する情報を
> Appleに一切提供せずに、iCloud写真からCSAMを排除することを目的に設計されている」という。同社は、そうした画像を所有する行為も、
> 米国を含むほとんどの国で「違法」だとしている。
>
> Appleは、この機能について、iCloud写真を使って写真を保存するユーザーのみに適用される予定で、
> 「iCloud写真の利用を選ばないユーザーには影響しない」としている。
これを読む限り
AIによる自動検出ではなく、データベースに存在する既知の児童ポルノと一致するかどうかチェックするもので
現時点で自前の写真や2次元のものまで心配することはなさそう
しかも対象は米国内のユーザーだし >>336
これはクラウドじゃなくてiPhone本体のに保存した画像の話。
ローカルに保存してあるものまでチェックされるから問題視されてる。 >>328
今の時期だと水着とか肌の露出が多い格好してるものはアウトだな。 >>231
逆にこれが日本のお昼に流れたことが信じられないんだが
コラじゃなくてガチ? 裏で自分らは回収画像で楽しんでるに決まってるからな
警察だってそうだろ 児ポは違法なんだから検閲されても仕方ないだろ
お前らそんなにやましいことしてんの?
俺は見られても困るものなんか何もないけどな
位置情報でも通話履歴でも全部見られても困らない
普通に暮らしてたら俺と同じはずなんだが? ってか金になる情報だし前から見てたでしょう
当たり前のように見てたからこういう反応が起きることに気づかなかったんだな ごっついデジカメっていうよりは
小型のスマホっぽい奴なら持ち歩きやすいなあ >>1
グーグルもアップルも
365日監視して音声まで聞いてるなんて無いよね?
PCやスマホのカメラに目隠しシールなんてバカがやる事だよね? 児ポにかこつけて企業や学術機関の技術情報から政府機関の機密までアップル製品使ってると抜かれるってことだよな Googleはすでに実施済みなので何を今更って感じなんだが。。 おまえら息子も娘もいないじゃん
なに動揺してんの? 供給源になってるガチの犯罪者はもっと深く潜るだけなんじゃないの? この学習データをGANにかければ非実在少女の画像作成し放題か。 全部の画像見られてんのかな…
中華以上にやべぇ
なんか全ての画像見られてると思うと気持ち悪い >>7
売上は上がるかもしれん
アップル以外はロリコンってのを広めれば疑われたくないやつはアップルにする ポルノに反応できるなら、それ以外にも反応できるって事だしな、日本ならともかく世界では反対されて無理だろうな >>343
ある程度はウィルスソフトみたいな感じでAIで絞り込んで
最後の判断を人間がするというのもダメなのか? >>305
いや、一次判定はAIがやるらしいけど、そのAIはどうやって学習したのかな? 他の写真は検知しないが、
微 妙 な 写 真 は、AIが検知して裁定する! ロリ画像動画はダウンロードしても消せばいい。保存厳禁 全部の画像やファイル、メッセージを確認したうえで、問題があるかないかを
自動判別するんでしょ?
一旦は全部見るって事だよね? >>359
米国とかだと絵も児童ポルノ扱いしてるんじゃないの
そのデータベースに絵が登録されてればアウトだろ >>272
同一罪名での5年以内再入所率は統計で4.6%(H28白書)
一番高いのは覚醒剤で39.3%、ついで窃盗で34.3% このサイトにある大量のエロゲ広告も全部規制してほしいわ 19歳から27歳までしかクラウド保存しません
これは女性だけでなく男性の画像も同じです >>369
いや実際やってるだろ
ターゲットになるかどうか?という所が別なだけだよ 日本のiphoneシェアを支える学生が買わなくなるね 自分の子供のプールとか赤ちゃんの時に初入浴した時の写真も消されそう (´・ω・`)小型デジカメにwifi機能つければシェア拡大できるね >>396
そのうちAIがこっそり人類を支配しても不思議じゃない 検知するということはAppleもそういう画像を持っているということか CEO「僕は女の子には興味がないから安心してください」 その気になればチェックできることが問題なんでは?
児童ポルノがチェックできるなら文章や他の写真もチェックできること自明ですし >>369
AmazonはAlexaの音声聞いてて問題になった。 アニメとかの絵って国際的には微妙なんじゃなかったか?
エロイかっこしてたらアウトっぽいが >>378
自分撮りに誤反応という理由で全部検閲対象になるだろうな >>400
自分の子供でも
ただ楽しく家庭用プールで一緒に遊んでる様子でも撮影したらアウト
誰が撮影したとか関係ない
これガチでアメリカの現実
性犯罪撲滅のためにはどんなものであろうと疑わしいものは全て有罪
これが欧米の人権の考え方 その辺のソシャゲですら余裕で個人情報抜かれるからなw
アップルやグーグルなら当然というかw >>377
GAFAMは前から全部見てるよ
便利というエサで釣った画像を収集して解析に使っている 日本では今のところ合法のJrアイドルの水着写真わんさか保存してあるけどこれって海外旅行しなけりゃ良いんだろ >>334
おまえの顔認証データと比較して検討する 日本の深夜アニメは画風によっては服着ててもアウトくさいから
お前ら海外行くときは気をつけろよw なんだよ アップルがポルノを見たいだけじゃんwww ハッシュリスト?
画像解析じゃなくて、
Appleのサーバーに登録されている画像のハッシュ値と一致する画像がないか探すだけ? まあ、iOSやAndroid以外のOSがあってもいいと思うんよね
TRONと123便の話はいらないよ 社員旅行のとき、女子社員が酒買おうとして
ハウオールド?
って聞かれたんで
サーティ
って答えたら
サーティーン?って何度も聞き返された
確かに若い雰囲気ではあったけどな
アメリカ人から見れば日本人は幼く見えるらしい >>387
決定的な欠陥がある連中だよな
自分たちが上位にいないと「耐えられない」とか無様すぎる。
かといって相応のスペックがあるのか?といえばそれも疑問だからなあ
「選ばれし者」というたった一言に精神を喰われるとかお笑いだよ。 5Gで集団ストーカーによって思考まで盗聴されているのに、今更何言ってんの? 米国、イギリス、カナダ、フランスなどは絵も児童ポルノに認定している >>413
そう、学生が買わなくなって日本のiPhoneは終わり WindowsスレでこんなレスしてるヤツもAppleの独断には従順です
6 ニューノーマルの名無しさん sage 2021/08/06(金) 13:49:58.62 ID:uJM4Scje0
望ましいかどうかは自分で決める
いらんことするな アップルがやるのに
グーグルがやらないわけないよな >>390
正確ではない。カナダだと2次も児童ポルノの対象になるが
アメリカは連邦最高裁の判決で2次を児ポに扱うのは違憲だということになってる
ただし、そのあと保守派が法改正して、2次はわいせつ物として扱うということになったから
法的な取締りの対象になることはある
ただし児童ポルノのデータベースに含まれるということはない OSのバージョンアップの時に
やけに遅えなと思ったら
データ送信しとったんか! >>400
性犯罪の動かぬ証拠と判断、通報されるんだろうな
その画像はデータベースに残り続ける >>1
夏場に自分の子供達撮ったら人生即終了で草
あとこれ男性(父親)に限らず女性(母親)でもアウトな
初の産湯の撮影で母親逮捕とか胸が熱くなるね! 子供がいない男性は生殖器切断でiPhone使用で良い これ、自分の部屋に監視カメラセットされるのと変わらんな >>412
カナダはセーラームーンを児ポ認定してるね。 (-_-;)y-~
リアル・ネオがおると、
D発期間工の同志社卒根本先輩が教えてくれて、
二人で通勤経路待ち伏せして、リアル・ネオ見つけて笑った。
救世主だッ!wwwwwwwwwwwwwww >>418
もうすぐ警察が行くはず
残念だったな
フロッピーにでも移しておけw >>330
Google storageでやるのとは随分違うだろ >>422
林檎
読み方:りんご
婦女子を誘惑することをいふ。
婦女を誘惑すること。最初の味が似ているところより。〔不〕
婦女を誘惑すること。最初の味が似ているところより。 隠せばいい
蓋をすればいい
この考えで一向に性犯罪が無くならないどころか増加する一方なのが欧米
けど奴らは自分達の考えがズレてることを絶対に認めない 基準がわからないし何をされるかも分からん
一端iPhoneから離れて様子を見た方がいいね >>389
全て筒抜け〜
ヤバいのは機密情報
国家機密も企業機密もピンポイントで全部抜かれてる 正直、ロリ大国にはキツい仕打ち
スパイフォン売上げ落ちそう チェックされても児童ポルノなど出てこないがチェックされていることが気持ち悪い
Appleが警察になる必要はないだろ
もし機能をつけるなら検閲ではなく児童ポルノに関するものは保存不可や削除する機能にするべき エバーテイルのゲームキャラをスクショ保存してるだけで通報されるな >>440
そう、こういう流れを必死に作ってるやつらこそが一番ヨゴレてるタイプ >>95
これをアメリカ人のiphoneに送ったら
受信した人も逮捕されるんだろうか。
送り付け詐偽以上に迷惑だな >>444
近親相姦の児童虐待扱いで更に刑期が倍増だね
終わってるわ >>414
わざわざ裸で子供と風呂に入る必要ないだろ
子供にもプライバシーはあるんだぞ
マジで未開ジャップって子供の人権無視するよな
躾といって殴る蹴るの八つ当たりしたりとか世界的に見てもジャップは異常 GAFAの言論規制、検閲、監視…
世の中が共産主義化してきたな (-_-;)y-~
リアル・ネオは、
D発作業着に、サングラスとロングコート。 バイデン政権は社会主義を目指している。ここが本当に怖い処。 AIはせいぜい怪しいものをピックするくらいだろ
最終的には人が判断する
つまり他人がiCloudの中を勝手に覗いていいっていう許可を与えることだ
たとえばAIがものすごくバカだった場合は、すべての画像をピックし、それを他人が見ることになる 中国の検閲とイメージがダブる上に
冤罪が発生すれば米国特有の巨額賠償請求の裁判で
リンゴはブランドとしては完全に終わるかもね 政府に逆らうやつのiPhoneにロリ写真を送りつけておけば逮捕できるわけよw これが怖いのは漫画家とか小説家が、ネタ帳に書いたのが盗まれてハリウッドとかに使われる可能性を否定できないんだよな
国民総青葉になるぞw 女児が海水浴行って自撮りしただけで通報される未来が来るのか >>456
言ってはないけど
もうグーグルさんやアップルさんに
全て見られてるんだけどね
それが公式として認めらる恐さよ >>1
やっぱ日本人なら日本のメーカーのやつにしよう。
IPHONE12買ったばっかりだけど。 >>472
子供の成長記録って言って赤ん坊をお風呂入れてる写真撮ると
そのまま逮捕懲役15年だ アイポン( ゚∀゚)アハハ八八ノヽノヽノヽノ \ / \/ \ >>466
最終的に通報するかどうかは人間が判断するって書いてあったな 警察ですら裁判所の発行した捜査令状を必要とするのに国際企業様とやらは
法律も人権も一切無視でんな
任意捜査でもしとるんけ? >>456
保存不可や削除にする場合も
それが児童ポルノと判断するのになんらかのチェック(つまり検閲)が必要になるのではないか バイデン政権はビッグテックと一緒にやると言ってるから怖い。言論弾圧。 自分の子供の画像を外部とアクセス可能な機器に残すなんて愚かだろ
デジカメで撮影して自分でプリントが基本だぞ 日本って高校生エロはアウトって法で決めたのに
すっかりなかった事になってるよな 逆に言えばアイフォンは紳士という証明
アンドロイドはロリコンペド野郎ということ 保存やコレクションは男の性だからな
それを覗き見られるのは耐えられない Siriが勝手に発見して送ってくれるのか
安心だね👍😊 iOSやAndroidはスパイウェアだって最初から言われていただろう
端末内の画像をスキャンして自由に利用するってのは利用規約に昔から明記されている これ一応、アップルの説明では
「CSAMとして既知の画像のみ」を検出する事になってる。
要は登録されていない画像、
自分の子供や孫は検知対象外って事なんだけど、
ただいくらでも誤作動はあり得るわな... >>479
スマホ使い始めるときやアップデートの時に認証ボタン押すだろ?
本人があれで許可しちゃってるんだよなー >>114
アメリカだと子供が自分の写真を撮影するのも児童ポルノ製造になるぞ >>379
iCloudなら写真を人物、風景、犬猫で分類できるし、誕生日会なんかのイベントを認識してアルバムまで自動で構成するよ。
どんな生活してるか筒抜けよ >>493
siriを手なづけるソフトバカ売れやな >>432
わいせつ物か何かに2次元を児童ポルノな感じで取り締まる規程を入れたと昔何かで見たことあるけど
じゃあ、児童ポルノのデータベースベースには入ってないのね? >>496
それもあるしいつの間にか対象拡大してそうでそれが恐ろしいよな。 今年産まれる我が子の誕生時や入浴時のスッポンポン写真とかも検知されるって思っておいた方が良さそうだな
Androidに乗り換えるか これってPCではiTunesでもスキャン始まるんだろ?
当然だよな?なぜiPhoneだけだと思ったよ?
全部だよ全部 な?
子供の写真でも入れてようものなら当局へ通報されるのか
Apple終わったな 取り敢えずiPhone勢はドラえもんやサザエさんで試してみてくれ
お風呂シーンはセーフかアウトか知りたい(笑) >>504
その言い分はそれとして、本当にそうかどうか一旦全部見させて貰うよ、って事だぞ >>444
母親が医者に見せるために子供の患部(ちんこ)の写真をクラウドに保存してたら消されたというニュースを以前見たような ジポ取り締まるのはいいけど、個人情報覗くのはアカンわ
仕組み上殆どの無実の人のデータも覗かざるを得ないし
少なからず関係のない情報を発信する訳で
家族写真とかならまだしも
変な話、身長が低い彼女とのハメ撮り画像とか普通に他人に見られる危険ある 自分の子供の普通の写真とかだったらどうするんだ
風呂に入れてるやつとかビニールプールで遊んでるやつとかでも裸だからって検知されちまうのかよ
思い出にその位の写真は誰でも撮るだろ >>496
登録してあるということは所持してたってことかな?
警察でもないのに 「エロ」っていうフォルダーと「幼女」っていうフォルダーの画像以外チェックするな どうやって画像区別してんの?どっちにしろ中身覗かれる事に変わりないじゃん
自ポ画像持ってないから安心じゃねぇんだよ勝手にスマホの中身見られるのが問題なんだろ >>504
Appleが公式セキュリティホールを設けてユーザーのローカルデータを全部さらうってことだから
公的には児ポ検出に限るとしていても仕組みさえできあがってしまえば何でもやりたい放題だな パチンコガンダム駅のAppleのデータ処理なんて信用できるわけないだろ >>474
和製は余計な機能がなぁ、ワンセグとかいらね >>479
それよりはAPPLE社の方が優秀なんだろうけどな
脳筋高卒なんてのもおらんだろうし 児ポ自体は全く関係ないから問題ないんだが本当にそれ関連の画像の検知だけで済むのか?
他の情報も抜かれてそうで怖い >>504
児ポが無いかスキャンするって事は写真データ全て見られるって事だぞ >>504
児ポが問題なんじゃない
iPhone内の全てのデータが常時検閲されて抜いていると告白したのが問題になってる >>518
外部からアクセス出来る機器で撮影しなきゃいいだろ
親が我が子のプライバシーを守らないで誰が守るのか 多分、ワクチンに不都合な書き込みを検知して通報されるようになるよ。 >>514
マジで?息子が鼠径ヘルニアと陰嚢水腫の疑いがあって、医者に見せるためにポコっと出てる時に撮影してるわ
消されたら困る 全てのBabyの写真を撮るなってことだね
ますます子供を慈しむ心が失われるね
世界はもう終わりだね AppleからBig Brotheに社名変更したほうがいい こっわ、いまiPhoneだけど別のスマホに鞍替えするか >>1
だからなぜクラウドにそういう画像を保存するのかw
もう逮捕されたらどうにもならんだろ
あほすぎ情弱は死ぬといいよ 相撲部の部員の半裸(まわし Tバックの画像)
を、保存している奴!
今すぐ アイフォンを電子レンジに ・・・・ >>1
家族で海水浴に行って写真撮ると国際指名手配w
恐ろしいな 世の中のほとんど全ての人間は児童ポルノなんて持ってないのに
全ての端末に公式のセキュリティホール開けるとか無茶やろ
例えば性犯罪者や前科者の端末は申請すれば
開けられるとかならええけど >>502
普通に児童ポルノ扱いだよ
だから日本からエロ同人誌を持ち込もうとしたのが定期的に空港で逮捕される
児童ポルノは「児童に見える」というのが要件だから二次三次関係ない
二次を許可したら児童ポルノを精密に模写した絵は合法になってしまうからね 韓国のLINEと同じじゃねーか
日本人にプライバシーは無いってことだな 保存された画像データを検閲するのは反対。
どうしてもやるなら、カメラの方にアクセスして、
危険な写真は保存できないようにすれば良いとは
思うけど、産業スパイのやり放題になるんだよな。 児童ポルノだからなこう言う状態にしたのは児童ポルノ愛好者どもだwww
自業自得wwwww そうは言っても生粋の広告屋であるGoogleの方が
プライバシー管理酷いぞ バイデン政権は、米国人から政治的な自由も奪っている。
2020年の大統領選挙の票の数え直しで、既にトランプの勝ちが証明された。
バイデンは100人以上の弁護士を雇って、猛妨害をしているがアメリカ人もバカではあるまい。
トランプ支持者を相次いで何百人も逮捕しているが、これは中共と変わらない弾圧である。 >>504
捕まらないだけで全部チェックされるんだぞ
肌色が多いとか下着に使われる色が下着型っぽい形に見えた画像(実際に人の裸とは関係なくても)ってだけで1次チェックは引っかかるかもしれんし、目で確認されるかもな 中古の高画質なコンデジ買えばいい
iphoneのCMOSなんて4000×3000
1200万画素しかない
2000万画素の中古のコンデジでいいがな >>402
もう何年も前からSDカードにwifi機能付きあるだろ これは結構やばいかもね
簡単に嵌めたい相手を貶められるようになりそう
児童ポルノなんて見ないから関係ないなんてお花畑なこと言ってられないよ そもそも電話もメールもアメリカのエシュロンに覗かれてるから大して変わらんよ >>29
俺の作ったAIは地球が終わるまでの期間をすべて予測してるぞ。
今のところ全部外れてるけどね。勉強嫌いなAIでね。ぜんぜん学んでくれんのだよ。 これ全ての写真が検閲される可能性があるってことだよな
ヤバすぎる 全然見るのは構わんけどプライバシーとかどうなってるんだろうな 昔の水着姿が載ってるアイドル雑誌とか売ってる古本屋は全部逮捕か >>554
バーカ
アメリカで児童ポルノに一番うるさいのは
トランプ支持者に多い福音派のプロてスタントだよ
大統領選のときの騒ぎ知ってれば、それは常識だろ >>131
じぽって書いてあんだろ?
読解力皆無かよ 個人から抜いた画像Apple社員が保存してそう
これで流出物が増えるな スマホとかクラウドに児ポ画像保存してる基地外なんて世界にそうそう
いないだろうけど、本当にそうなってるか通報の為に全世界の端末と
記録を全部問題ないかどうか見る仕組みを入れるねって事だろ?
偶然企業秘密とか通話記録が検出されちゃったとしても偶然だからね >>547
怪しいやつはとにかくひっとらえるって予防警察化してるのは笑うしかない
自分は関係ないと思っていてもそれを判断するのはポンコツAI それでも Google Facebookよりマシなんだよなあ
あいつら匿名だろうがなんだろうが第三者に売るし
Amazonは収集した画像を何に使ってるか知らんが >>114
ああそれ
母親がにやにやしながら撮影したのが始まりだよ
息子は母親の笑顔が見たいからね >>555
ロリ顔の日本女はアメリカ旅行でもしたら全部閲覧対象になるのだろこれ tiktokでjk,jc物ダウンロードークラウドで貯めて
ローカルに移動もヤバイやん >>565
子供レイプして殺すような鬼畜どもに人権要るか?
見つけ次第死刑にしとけよ リストとのハッシュつき合わせだけなんだから
問題ないだろ
嫁のだるだる腹の秘密は守られるよ >>562
写真が検閲可能って事は他のファイルも当然検閲可能だという事だ そもそもクラウドに保存しなければいいんじゃねーの? 黒人とゴリラの区別すら付かないAIにそんなこと出来るわけないだろ クラウドに大事なデータを入れないのは基本中の基本だけどな。 >>581
で、その最初のリストはどこから入手するんだい? >>564
その気になったらピンポイントで指定した日時場所で撮られた画像を検索出来るってことだよな
面白い 日本のアニメや漫画は漏れなく児ポ扱いされて実際に投獄されてる人もいるからな
日本人にしか売れない糞iPhoneが日本人を敵視するようなシステム搭載して大丈夫なのか? >>580
そのためにおまいの人権も失われるとしたら? 家族写真すら覗き見されるようじゃ、デジカメ復権だろうな 日本の未成年アイドルのヲタやってるやつ
全員逮捕wwwwwwwwwwwwwwwwwwwwww >>56€
すべての写真が検閲されるって事だよ
すべての中から抜き出すんだから必ずアクセスしている 人の好奇心、怖いもの見たさ舐めるな
最初の楔となり次々と拡大するに決まってる
まあうちは可愛いハムスターや犬猫画像がメインだが というかPegasusみたいなゼロクリック攻撃でiPhoneさえ全部のデータ筒抜けに出来るんだよな
まあそれは各国の諜報機関とかが
活動家みたいな連中に送り付けて感染させるから一般人は今の所関係ないが
スマホに何でもかんでも入れるのは危険 >>595
一種の情報収集である可能性はあるよね。ビッグデータの時代だし。 非実在人物のエロイラストも検知 → 日本国内で非実在人物のエロイラストも児童ポルノとして犯罪化される
どうしたってこうなっていくだろう。 政府の方針ならわかるが、一企業がこんな検問していいの? ていうかなんでAppleがこんなことするの?
警察の仕事じゃないの?
警察に言われたら仕事ホイホイ受けんの? 勝手に判断されて関係ないデータを知らない間に消去されてるとか起きそう >>591
セレブリティの写真とか漁ってる社員とか絶対いるよな
そういえば前もクラウドに保存されてたセレブリティのヌードが流出する事件もあったはず iOSの中に
勝手にゴミ袋漁って通報するおばちゃんみたいなのが実装されてしまう 更衣室に監視カメラ仕掛けられないみたいなもんだよ
映像見ないとかそういう問題ないじゃ無いわ
仕掛けたら終わり >>587
レスを読む限りクラウドに限らないってニュースではないのか >>585
今回の話はクラウドだけの話じゃないんだよ
単にiPhoneローカルに保存したものも対象 >>585
クラウドに上げる前のデータスキャンやぞ Appleさまに逆らったら端末ごとあぼーんされるぞ とりまアメリカだけでやるんじゃん
そこで大ブーイングなら中止になるしょ >>594
俺はノーマルなんで無問題
困るのはロリコン犯罪者だけだな >>608
警察が外部業者に依頼してiPhoneのロック解除したからあてつけなんじゃないか? >>339
大人チソチソにしても、子どもチソチソにしか見えないのだろう ゴミ痛浜田がスマホ変えちゃうううううううううううう お前らの端末に他人が遠隔操作でロリ画像保存することも可能だよ
お花畑もほどほどにしとけ >>16
アップルのクラウドがハッキングされてハリウッドスターのヌード画像祭りになったのに
他人の管理する鯖にエロ画像を保存するなんて狂気の沙汰。 最近のAVは過激な物が急激に減って来てる…ってか検索タグから外されてたりするから本気でやるつもりなんでしょう
iPhoneだけだしお手並み拝見と行きましょう 家の中勝手に入られて写真漁られるようなもん
見られて不味い物が無くても普通に気持ち悪い >>621
残念ながらそれを判断するのはAIだ
自分でそう主張しても意味がない 他の写真は検知しないって言ってもスキャンはするんだよね?
仕事で撮ったホワイトボードの写真とか恐ろしくてiPhoneでは扱えないなぁ。 >>615
>>616
んん?
Appleじゃない社外フォルダとかに指紋認証とかでデータ入れてもアップルが無理やり漁ってくるってことか? 他の写真は検知しないってことは
ユーザーのストレージにある児童ポルノ写真にはもともと児童ポルノタグでも付いてるってことかよ?
写真の中身チェックしないでどう判定するんだよw そもそもどうやって判別するんだ?
画像認識とかでやるんだろうけど、まともにできるのか? 製造は中国でやってる、この写真の検閲する部門も中国とか
じゃないよね?散々ファーウェイにバックドアの危険性云々
で叩いといて
アメリカ企業がやるのは許されるのか。しかも画像を見たうえで
怪しかったら片っ端から通報されるとかバックドアとどっちが
脅威なんだろな… 単純所持は違法なんだから、画像をケータイに入れたらだめ
これは分かる
一企業が個人情報を監視したらだめだろうとは思う
情報はすでに抜かれてるから、気にしすぎと言われればそうだが ハッシュの衝突で誤検出されて誤認逮捕される人出そうだな。 >>608
iフォン6辺りから変な会社になったらしい ウチの息子のおちんちん丸出しの写真とかどうなるの?通報されるの?でも息子のおちんちん写真勝手に検知するのがプライバシーの侵害じゃ無いとは思えないけど。 むしろ全数確認せずにどうやって白黒…じゃないOK/NGを判定するのかね >>32
表向き「子供達を悪人から守る!」
裏の理由「これで中国様もご満足」 >>646
ちんちんにモザイクかけとけ
丸出しである必要性はないだろ このプログラムを作ったやつらは判別するデータをどうやって作ったの???
まさか被害者に無断で見放題? 結局検知する為には一回全部見るじゃん、筋トレ日記の写真とか勝手に見られるの嫌なんだけど カネ儲け目的の民間企業が警察機能を持って治安維持活動を行うようになるって
まんまSFのディストピアの世界やな だから検出したものは確認するんだろ。
アウトだったら通報。いいシステムやん。何が問題なの >>639
ぐうぐるの画像検索みたいなのを個人のデータ全部に掛けられるってことなんでしょうな ちなみにAndroidってかGoogleは既に国内で自動削除なるシステム何年も前からやってるから
心配ならスマホ使わないくらいしか選択肢がない どゆことなの検知してどうするの?アップルが警察に通報すんのかね通報しないなら何のために検知すんの 少数の子供の犯罪被害はその他大多数のプライバシーの侵害より優先するの? 昔YouTubeに彼女のまんこアップしたら1分後くらいにメールきたから古い技術なんじゃねーか >>631
構築次第だね。
児童ポルノの定義はAIが決めるんじゃく構築した人間で決まる。
AIに情報をぶち込まないとAIは何もしないからな。 >>654
まあ、中国みたいな国家のあり方を信奉してる人は必ずこう言いますよね >>654
ウチの息子のおちんちん写真を赤の他人が勝手に見るの?何の権利があって? >>639
AIでざっくり判別してチョイスしたのを人間が直接判断 >>639
他の人も書いてるけど
CSAM(児童虐待素材)と認定されたのと同一な画像を
ハッシュリストをつかって検知する
だから今の段階ではあくまでも
既知の児ポ画像と同じかどうかチェックするだけだ >>652
自分の筋トレ動画や写真に残してるのは何のためなんだよwきめぇな アイフォンって中国と連携してるからな
アイフォンから中国に渡って 流出ってとこか
自民党の韓国LINEと同じ流れだな そもそもiPhoneを持たなければ関係ない
しかしセキュリティに万全を期すにはOSから自前で書かないといけない時代になりつつあるのか >>658
児ポなんて
表向きの理由に決まってるやん やっぱりインフラは集中させたらだめだな
これからはGAFAの理想の世界を目指す世の中になるんだろうな
例えばこのコメントが勝手に弾かれるような世界に >>670
これなw
ようは民間人を完全に監視下に置きたいだけじゃね 肝心のApple社員が一番ヤバい画像大量に持ってそうw他人から抜き放題じゃんw >>664
AIでは無くて既存の児ポデータのハッシュと照合する。 >>663
自分の息子のちんちんなんか写真や動画に収めんな
子供が可哀想だわ この仕組みを入れるとして、取り合えず日本法人は日本政府所有の
国有会社にしてアップル日本の取締役は選挙で選出って事にしないと
民主主義国家は成り立たないな
官僚組織の警察トップも国家公安委員長が存在する事が建前になってる >>4
いやぁ・・・マジで真性包茎だと
児童ポルノと誤解される可能性あるのか
でも、毛が生えていたらOKじゃね?
ツルツル状態だと危険だけど・・・ 自分の身体を自撮りするのもアウトかよ
中共でもここまでしてないが おそらく顔で判断してそうだな
ベビーフェイスの成人女性は検閲されて、勝手に見られまくるってことかな
あんなことも 以前、ポルノとは全く関係ないタマネギとナスの写真がGoogleからポルノ画像として誤認検知されたニュースがあったな。
当然同じことが起こり得るし、引っかかった写真は人によるチェックが行われるわけだから、iPhone内の全ての写真が検閲対象になり得ることになる。 >>632
便利でよかったのにね
これからは別にしないといけない >>654
端末内の検閲は児ポ以外でも当然やっているだろう
スパイやり放題 アカウントを停止して当局に報告する機能
おまえら大変じゃんwwww スマホは全部見られてる覚悟で使ってるだろ
嫌な人は最初から持たない 5ch上のエロ広告バナー全アウトですか?
もしそうなら終了だな、次の趣味探しておかないと >>669
俺は機密データはすべて頭に記憶してる。
中でももっとも重要なデータはPC起動時のパスワードだ!! >>670
最初は、誰も反対できない「児童ポルノ」を禁止するためという理由を掲げつつ、
次第に、「共産主義思想」なども取り締まっていく流れだよ 成人女性の画像が誤検知されたらそれは無言のセクハラだよね >>319
aiの年齢判定はたぶん人間より正確だからそんな間違い起きないんじゃない?
40代と50代ならともかく10代と30代じゃいろいろ違うでしょ >>666
え?普通に筋肉がついてきてるかどうかの確認用だろ?ダイエットすらした事ないデブタには分からないか 他の写真は検知しないってどういうこと?
iPhoneは超能力を持ってるのか? 中国とデータのやり取りしてる人を探したり
テロを画策してる人を探したり
いろいろ応用できるな >>32
アップルの言いなり奴隷作成
要するに奴隷狩り >>677
いやめっちゃあるよw庭でプール入れた時の写真とかふざけてお尻丸出しでフラダンス踊ってる動画とかw 児ポって建前用意して批判する奴はロリコン扱いしてくるアップルのやり方まじうめー どんな名目があろうと勝手に見るなや
犯罪関連なら警察が要請してから動けや 「他の写真は検知しない」
児童Pの写真だけをスキャンして
児童Pの写真だけを児童P写真だと判定して
それをAppleに送るんです
スキャン前に画像が児童Pかどうかあらかじめ分かっている
そんなことができるんです
そうApple ならね ずっとiPhone使ってたのにいきなりAndroidに乗り換えたやつは
ロリコンなので注意してください しかし、検知する仕組みは羨ましいな
性癖を打ち込んで1発で世界中からオナネタが飛び込んで来るんだろ? >>692
天下のグーグルでさえアフリカ系民をゴリラと判定する程度のAIでしょ。 >>674
日本はラ●ンに抜きまくられてるだろwwwwwwww これアップルが今日から始動したとしたら何万人逮捕されるんだろうな >>675
既存の児童ポルノを大量に保管してるデータベースがあるのか 東京オリンピックの開閉会式での子供を使った演出も電通の児童への性的嗜好の現れだよ。 >>56
父子関連性ゼロ
遺伝子適合率0%のため他人の児童ポルノ生成と判断 >>690
ワクチン反対派とか政権批判する奴とかの取り締まりにも有効かもしれない うちのiPhone内の子ハムスター写真見たいの?
どうぞどうぞ 病気の記録写真とかも検閲通報対象になってしまうんかな >>692
白人の10代なんて30代に見えるほど老け顔の人いるけどそういうのはどうすんの?
アジア人の10代と白人の10代だって全然違うのに AI判別機能は曖昧だから、間違いなく普通の写真すら見られるだろうな
てかこれってウイルスじゃねえの? >>705
サンプルと似たような画像が世界中から集められるのは大方当たってるらしい そうかねえ、youtubeでさえ肌色が多いだけで年齢制限だったり この仕様老若男女関係無しに大体の人間から非難殺到してるんだが批判したらロリコン理論で行くとiPhone使ってる殆どの人間がロリコンになっちゃうね こんなんでも一般人の認識はiPhoneはセキュリティが高い!だからな
アホすぎるだろ 自分の子供の水着 (家でビニールプール) とかの写真に反応するのか? >>694
児ポを保存してると明らかになってるサイトに関連してるタグを検知するんじゃね?
そこから保存したらわかるみたいな >>705
「おねショタ」「妊婦」「母乳」「獣姦」
「尿道カテーテル」「クスコ」「中出し」
「軟体」「開脚」「柔軟」「バレエ」とか? ところで黒人とゴリラの見分けはつくようになったの? 聖職者とかに小児性愛者が多い傾向があるけど
これって実は自分たちが愉しむために開発してるんじゃ
綺麗事言う人ほど裏でそういうことしてると思う 我が子の写真はどうすんだゴラァと言ってる親はそもそもが危機管理能力不足だよな
親なら子供のプライバシーはお前が守れ 見る見ないがApple側の裁量っていう時点で気持ち悪い。 >>672
それをSiriに言ったら通報されるんや 具体的には言わないけど女の子を出演させてるプロモーションビデオを作ったロック歌手も
潜在的に児童への性的な嗜好があるよ。
アイツも警察監視対象だよ。 >>725
その写真がアメリカの児ポ組合に児ポとして登録されいてたらアウト >>724
防御を止める事が最大の防御だったりするからね
そう言えば政治資金の仕事をしてた親戚は手帳とか記録の類は一切付けずに
全部暗記するって言ってたな >>704
iOSはまだアメリカでの試験だけだがAndroidは
全世界で絶賛検閲中だから余計にバレるぞ BPO参入で無くなったが、15年前くらいまでは地上波バラエティ番組等で
若いお姉ちゃんのおっぱい
12才(小6か中1)くらいまでの子供の男性器
無修正で放映されてたよね。今では考えられないけど。 >>726
データベースに登録してある既知の児童ポルノ画像のハッシュ値と同じものかどうかをチェックする
画像を拡大縮小した程度なら同じハッシュ値が得られるから、それで検出できる >>621
日本人の大人の女性は向こうからだと子供に見えるらしいぞ。つまりお前も検閲の対象や。 コンピューター科学を学んだこともないやつらがデータの保管場所も意識せずにスマホで好き放題してることに
疑問を感じないわけじゃなかったけど、だからってここまでやるかと
大半の人間は何が問題なのかすらわからんのだろうね iOSに情報収集するデーモンが標準実装される日も近い >>714
ナチズムも、最初は「ユダヤ人」をターゲットにしてたけど
次第に「共産主義者」「自由主義者」「非協力的な人間」にまで拡大して
全体主義社会が作り上げられていったからなぁ・・・ >>730
肩書きと人格がおおかた反比例していることに人々が気付き始めたらしい >>730
社員も人間だし間違いなく盗った画像で楽しむだろうな iPhone内のロリ画像検索して自動的に警察に電話してSiriが通報したら感動する。(´・ω・`) ヘイ!シリ!と言った瞬間に聞いてるのか?
ヘイシリ!言われるまで聞き耳立ててるのか?
それも問題だ!
OK!グーグルに聞いてみるかw 子供の写真も撮れないじゃん
iPhoneから変えるわ 全ての映像作品に自動を使ったら
それだけで児童ポルノだよ! >>739
それだとハッシュ値が同一になるように調整された画像で誤認逮捕させることもできるだろうな このプログラム作るのにAppleの技術者はどんだけロリ画像見たんだろ 我が子のプールやお風呂の写真と児童ポルノ、どうやって判別すんの? どうしても子供のちんちんの写真撮りたいガイジ親はデジカメで撮って物理ストレージに保存しとけや >>1
/\___/\
/ ⌒ ⌒ ::: \
l (●), 、(●)、 l / 児ポは導入しやすくする為の足がかり的大義名文で、
l ,,ノ(、_, )ヽ、,, l < 実際は、国民監視検知システム自体の導入構築。
l ト‐=‐ァ' .::::l \ 検知システムの導入構築さえできれば、こっち(政府)のもん。
\ `ニニ´ .:::/
/`ー‐--‐‐―´´\ 自分の子供が家庭のプールで泳いでいるところを撮影したら、
アカウント強制停止食らうぞ >>750
なぜ撮影や録画する必要がある?
子供が楽しんでそれはその日だけでいいじゃないか >>747
言葉の検索してる人にpもリストアップされて警告来るようになるんだよ アウトなのは子供の画像だけじゃないぞ、AIが誤認したそれっぽい画像ってだけで目付けられるから実質運 >>727
南米の失われたあの文明について
調べるのもアウトかな >>727
それだな
潜在的な物まで強制的に集められ機能は神の仕業か ヒジの内側のシワをアップで撮り貯めておこう
はたしてAIは反応するのか? ブラジャー開発のおっさんがブラジャーに詳しいようにロリ検出アルゴを
開発した担当者はロリマスターとお呼びして良いだろうな
ロリ画像に詳しいロリの鉄人だ >>144
あほか
外のカメラに写るのと家の中にカメラセットされるのと同じなのかお前は ハッカーがセキュリティ作るように
ロリがこの仕組み作るって事は簡単に想像できるわ 息子の息子写真いっぱいあるよ。クレヨンしんちゃんばりにチンチン出すもん 子供のプールがとか言ってる奴は自分からSNSに投稿してそうw 子供がプリキュアの下着を着て
得意げに踊る動画とかも通報されるのか
アンドロイドでいいや これでもう法人向けのアプリは作成できない
Appleオワタ >>746
そいつは機能の一部だ
iPhone内の写真を舐め回してやべーのを検出して110に通報する機能が付く >>711
そういうことですね
出回っていない個人的なファイルを
保存送受信するのはぜんぜん問題ないね 子供の水着写真も親にしたら思い出でも変態ロリコン野郎からしたらオカズなわけだ
それを手軽という理由だけでスマホで撮影してそのまま保存しとくなんて愚かだろ 流石アメリカ、自分の子供の時の写真を上げると児童虐待で本人が逮捕される国だ。 >>761
その理屈で反論するなら
もはやスマホにカメラ必要ないな >>757
行く行くはOSがwinもmacも強制クラウド化し
外部ストレージ繋いだ瞬間にスキャンされる未来 >>1
他の写真は検知しない
っておいw
最低1回は見ないと判別できねーだろが!!!w そんな精度の画像認識できるわけないやん
関係ない写真も絶対引っ掛かるし見られるでしょ 昔、電波少年で松本明子がアラファト議長に会いに行った時、そこの護衛に子供が来ているって言われていたな。つまりそういう事や。 児ポ愛好家はアンドロイドに移行して、残ったマトモなユーザが後検出で被害を被る未来しか見えん。 あれだろ、企業や権力者のデータは既にチェック済で、個別に「特別対応」いたしますだろw
今後法案や税制で色々優遇受けられそうだなクックさんよ 世界中の変態集めて意見を聞いたら、最強の検知システムが出来上がるだろうな。 そのうち出産シーンも児童ポルノ認定されて、
我が子の出産関係画像が全部強制削除されるぞ >>756
すべて児童Pとして扱うということだろう。
そもそもアメリカでは我が子のそんな写真撮らないだろうし、撮ってたら親による虐待と見なされるのでは。 アメリカ人の身内に欲情する国民性が異常なだけだろ。南朝鮮が見習った国だけはある。 >>778
みんなスマホを便利アイテムくらいにしか思ってなくて情報セキュリティなんてろくに意識してないんだよ 家族で海水浴に行った写真も、水着のまま撮ったらアウト? これ包茎が毛剃って自分のちんこ保存してるだけで逮捕されそう
家の中で全裸になってたら知らない人が勝手に入ってきて通報されるようなもんだろ >>796
今のAIなら
剃り跡くらいは認識できそう アップル「俺達発砲事件の犯人のデータを政府に要請されて拒否した実績あるから安心して!」
いや、そこは協力しろよ… >>780
いらないも何も
画像や映像がなくてもプールで楽しんでる子供にとっては
自分の「楽しかった思い出」という記憶があるだろ
なにも外部媒体で残す必要はない。
そもそも撮影する側はその思い出を持ったその子供ではない。 AppleはFBIからの捜査協力要求を拒否した時
「iPhone内にあるデータに関与してはいけないと考え、
個人情報を私たち自身にも手の届かないところに置いています」
と言ってたんだがこれ大嘘だったか
https://iphone-mania.jp/news-102165/ >>780
いや、仕事で経過報告写真を撮るから必要だし >>761
子供いないの?
幼子の日常はかけがえのない1ページ。日々成長しているので
1年前でも全然違う。今しかないシャッターチャンスなんだよ。 >>774
アンドロさんは毎日1MBの送信をしてるけどね
他の写真は検知しない=他の写真は見ないとは言ってない
便利って行き過ぎるとこういうものだからね
みんな見えないものを評価しなさすぎなだけで
LINEで少しは気付いてくれよ >>47
ウッ、ウリは成熟した立派な大人だから怖くないもん。 キリスト教の人気者キューピットは児ポじゃ無いんですか? >>532
わが子の成長記録もうかつに撮れないようなスマホはいらんな RGBの値を入れ替えて、肌色じゃなくする変換かけても引っ掛かるのかな?
さすがにそれくらいは対策されてる? そんなん、iPhoneのアルバム内画像を全て井脇ノブ子に偽装するアプリが出るわ(脱獄必要) >>1
ロリペド怒りのAndroidへ買い替えwww 2次元は大丈夫だよな?
カレンチャンとかマヤノトップガンちゃんとか 今後Androidに乗り換えた者は要注意人物としてマークされるな >>65
赤ちゃんサイズのちんこならお情けでセーフ >>4
なんで自分のナニの写真を撮る必要があるんだ? >>800
それを外部業者に委託して強引にロック解除しちゃったもんだから自暴自棄になってしまったんじゃないかと ポルノとか関係なくiphone売れなくなるだろ
こんなん気持ち悪いわ 中華製andoroidを使ってる俺は
すでに常時スマホ内を見られているので、余裕ですw 子供との思い出の写真とどう見分けるんだ
データ全部見ないと判断出来ないだろ >>803
そんなものがなくても子供の心に残ればいい! >>18
家でビニールプールだとパンツのままの3歳児とかおるからな >>791
ものすごく喜ぶ姿が可愛くて
一生の思い出なんだけど
別に自分と家族でみるだけでもダメなんて
子供好きとロリコンを判別するアプリを作ればよいのに 写真が何も入ってないニートは良いかも知れんが普通の人間なら1枚や2枚は確実に写真撮ってるんだわ、それを断りも無しに覗かれるとか常識を持った一般人なら反発して当然 林檎の担当者がロリコンで、画像収集はじめました、って事ですね 最近はテレビまであの手この手で音声検索オンにさせようとしてくるし油断ならないな 映像作品にガキを入れる奴は
ロリコン趣味があるからそれを作るんだよ 今のAIなんて所詮100年後は
「昔のAIってプリンとおっぱいを間違えて認識してたって本当ですか?」
って言われるくらいの骨董品だぜ? >>750
基本的にプライベートゾーンは撮るべきでない
大きくなってから本人が見ても快く思わないと思う >>822
そもそもロリコンが犯罪とされたのはごく最近の話 とりあえずアンドロイドに変えててよかった
まぁエロをスマホに入れたりはしないけどw >>739
それだと性的虐待をしている本人が撮った写真は検知出来ないね
ところでアップルはそんなものをデータベース化する権限を持ってるん?
データベース化するに当たってその画像が児ポであることを確認するとき画像そのものを入手する必要はないのかな? >>525
所詮米帝なんてこんなもんだ、いかに中国様が人民に奉仕してるかがよくわかる事例、といえる 自分の子供が裸でいる写真なら全く問題ないよな。そんなくだらないことで逮捕かな?w こわいな。 >>822
撮影機器と保存方法を安全性で選べばいいだけだ
スマホは危険だと認識しろ 5ちゃんネル ←の 書き込みも、
A I が、NGフレーズを検知したら 瞬時に
「余所でやれw エラー」が出る >>825
だから、性犯罪者の為に何で一般家庭の息子の写真が通報されなきゃいけないんだよ無能、って話だと思うんだけど。 >>826
行動記録やメッセージなどから判断出来る
写真だけだと分からん >>819
いや、自分の為に撮るんですけど。
後日、子供が見ても構わないが。 娘の写真も消えるんだろうな。
大事な思い出は心の中に。
破けたプールでギャン泣きした事実は闇の中に。 海に行った時の家族写真で逮捕されたら笑えるな
他人に勝手に覗かれるだけでも嫌なのに >>803
子供いるのにまだ5ch見てるのは引くわ
子供に悪影響とか考えない? >>763
3DSで顔判定したら小学生あつかいされたおっさんなんか、写真とれねえw >>835
中身いじればダミーデータをスキャンさせることもできる・・・・はず。
たぶんやってるやつも居るんじゃないかな。 中華スマホがー、Androidがー、Googleがー >>843
例外規定がない以上、自分の子供でも訴追される可能性がある >>822
元記事読め
自分の子どもの入浴画像は対象外
既存の児童ポルノ画像と同じハッシュの画像保存しようとしたら発動 >>834
だから>>359で
自前の写真や2次元のものまで検出されるおそれはないと言ってるだろ
AIによる自動判定じゃない >>831
ああいうのは子供が親の恩を忘れたときに、こんなこともあったんだぞとひっぱりだすもんだw 一部の犯罪者の為に何で大多数の人間までプライバシー侵害されないといけないの? >>843
自分の子供かどうかってのは
捜査しないとわからない
証明のしようがない >>833
いや、アンドロイドも自分の子供の写真が検知されて、ある日突然アカウントロックされるらしい。
うまく申請しないと解除されない。 そもそも他人の画像を勝手に見る時点でありえんわ
誤検知で見ちゃいましたテヘペロからの自宅にデータコピーして大流出からの他人の画像が勝手にライブラリに表示されるまで予想できる いやいや 絶対自分の顔が映ってる写真でさえ置いとけないわ。 こ わ い。 これ私企業による検閲みたいなもんじゃん
いや俺はポルノ持ってないけども 俺のスマホはiPhoneっぽいだけでiPhoneじゃないみたいだから
ギリギリセーフな >>114
自撮りはセーフなんて文言ついてないから基本通りにだめやろ
きっちりやるとすれば、大人なら性的云々の有無とかで抵抗しようがあるが、
子供の場合は両親と一緒に家裁や児相(はよく知らんが)で問答無用になるんじゃね >>16
今でもロシアとかが勝手に見てるだろう
俺の犬画像フォルダとかプーチンに見られまくってるはず >>858
正義の名の下に設定を少し弄ればいくらて検閲できてしまうんだが >>867
いまでも人のいない木の写真に
人物検出しちゃうレベルだろw なるほどな。要するにネット上に拡散された児童ポルノとして拡散した画像や動画との整合性で判断するわけか。
だったらここで自分のガキの話してるアホはさっさと別のところに行け。 このスレだけで我が子の写真はどうするの?って奴が大勢いることに呆れてしまうわ
我が子の写真を外部からアクセスされる可能性のある場所に保存するんじゃねえよ
親が率先してロリコンに餌与えてんじゃねえよ
いいかロリコンはロリコンってだけで死刑にしてもいい位の危険生物なんだぞ
それを忘れんな ていうか、 一言でもこういうこと言ってしまった時点で終わってないか? 結構やばい会社じゃん。 自分で盗撮したロリ画像なら論外だけどオープンソースのネットロリまで検閲なら可笑しいでしょ 『監視資本主義』より
「監視資本主義」の定義
1. 人間の経験を、密かな抽出・予測・販売からなる商業的慣行のための無料の原材料として要求する、新たな経済秩序。
2. 商品とサービスの生産が、新たな地球規模の行動修正構造に従属する、寄生的な経済ロジック。
3. 歴史上前例のない富、知識、力の集中を特徴とする、資本主義の邪悪な変異。
4. 監視経済の基本的な枠組み。
5. 産業資本主義が19世紀と20世紀の自然界にとって脅威であったように、21世紀に人間の本質にとって深刻な脅威になるもの。
6. 社会に対する支配を主張し、市場民主主義に驚くべき挑戦を仕掛ける、新たな道具主義者の力の源。
7. 完全な確実性に基づく新たな集団秩序を課すことを目的とする運動。
8. 上からのクーデターとして最もよく理解される、人間の重要な権利の没収――人間の主権の打倒。 iPhoneはAppleにガチガチに管理される事に納得して使っているものだと思っていたが…? >>843
結婚式で流すの想像して泣き
絶対嫁には出さないと思ったり
いや子供の幸せのためだからと考えたりしながら撮影する
コロナで死ぬときは子供の写真を見ながら死のうと思ったりしてます 2chMate 0.8.10.106/HUAWEI/JDN2-L09/9/LT
ε-(´∀`*)ホッ >>665
ああ。既知のものだけ判定するのか。
なるほど。 >>877
それ照合用データ保持してんじゃん、逮捕だろw 公務員は国産の携帯端末を使うようにしてほしい
1からスマホ作るのは無理だから昔のガラケーを復活させてそれを仕事で使うようにすればいい
やっぱ生活に欠かせないインフラを完全に海外企業に依存するってのは良くないわ >>867
構築次第だね。手間かかるし、人類の変態指数は無限大。
常に手直しが必要だね。つまり保守費用かかる。 仮に極論だよ?我が子の成長記録として裸の写真撮る、それを友達に送る、たまさか友人は特殊な性癖でオナニーに使う、でも携帯に有る画像は全く同じな訳さ?つまり携帯所有者の個人差によって同じ画像が意味が変わるわけだよ。それ判断出来んの? これ一番怖いのは一般人だよな、ロリコンは自ポ画像消すか別の所に移せば済む話だけど
友達との写真とか家族写真とか消せないし移したら意味ないような画像はどう足掻いても見られる 表に出てないだけで全人類管理なんてすでに始まってるだろ >>878
今時ネットに繋いでないスタンドアローンなPC持ってる奴の方が奇特だろ >>867
ハッシュ見るだけだからそんな大層な事してない 女性が訴えないと厳しいだろうな
男で訴える音頭取る奴ってロリだろう 動物に対する残虐行為も検知してほしい
いずれは人間は肉を食べなくなっていけばいい >>897
スマホで写真取るなって事
変なサイトに行くなって事 AppleもGoogle化してきたか
まあ、いいんじゃない
彼らが検閲するってことは彼らがiPhoneの中に違法なデータはないと
証明したことになるから、なんかあってもAppleのせいにすればいい >この技術はAppleがiCloud内の画像をスキャンするわけではなく、NCMECなどが提供している既知のCSAM画像ハッシュのデータベースと端末上のデータのマッチングを行う。
>まずハッシュデータベースをユーザーの端末に保存し、ユーザーが既知のCSAM画像を保存しようとするとマッチングプロセスで検出する
既存の児童ポルノのデータベースを元に検出するのな
これだけ見ると別にいいんじゃねって思えるが・・・検閲が嫌ならiPhone止めればいいだけかな >>901
一般的なハッシュとは随分違うようだけどな ipadもなんかなぁ だろうな。 ゴミ箱いきか。 写真削除してもデータ残るんかなぁ。 カメラテープで塞いどこうかな。
児ポなんてかけらも持ってないが。 怖いわ。 普通の写真は検知しないって全部の写真にアクセスしないと判断できないだろ
アップルはバカなのか (ユーザーの肩に手をまわして顔を近づけながら)
「写真、見てもいいよね?ね?」
これがAppleの本性 作ってる側が端末の中見られるなんて当たり前なのに、中華スマホ叩きしていたバカは
iPhone捨てるんだろうな? カメラ屋さんが息を吹き返すいい機会かも
アルバム作ろう >>875
そういうレベルで疑うのなら、今すぐネットを切断してスマホやPCは全部処分するしかないね なんかこの機能にあまりにも強い反応してるヤツは
特別な監視対象にしたほうがいいんじゃねえかな?w >>905
スマホで写真撮るなって事は常にカメラ持ち歩いてろって事か?wんで不意に過去の旅行話になった時もその時の写真は一々別のカメラで見ないといけないとw 俺の包茎短小ちんちんが子どもちんちんか否か
iphone様に判定してもらおうやないか 肘とか膝の関節曲げた時
ワレメっぽいときあるから
注意な。 やろうと思えばりんごが勝手に扱えるってことだね
ネットに繋いだ瞬間からな とりあえずAppleはユーザのプライバシーを尊重してますとかいうYouTubeの誇大広告を削除しとけよ 天使とかはオッケーなんすか?ミケランジェロパイセンみたいなさ >>895
引っかかってしまったら全て対象だろ
我が子の写真ならOKとしたらお前の息子は親が何万人もいることになる >>877
要するとこれやで
「CSAMにのみ使えるクライアント側のスキャンシステムの構築は不可能だ。その結果、善意の努力であっても、より広範な悪用への扉を開く。(中略)外部からの圧力によってわずかな変化が生じるのを待つだけだ」 CGもアウトなら日本で実行したらiPhoneの売れ行き終わるな 余裕こいてるやつ わらえる。 黙ってなんでもできる。 これ、宣言した時点で俺は絶対に信用しない。 写真すっからかんで拾い画像しかない様なニートには他人事かもな 検索のログなんかもずっと残ってるしな
それ調べたの何年も前なんだけどてやつが、ずっと広告に出てくるしな
そういやスマホ内に自分自身が写ってる写真一枚もない
LINEなら他の人が送ってきたやつに映ってたりするが >>926
立場的には人間より上だろうし、人間のルールで生きてるわけないからOKかもね。 写真だけで判定したら
貧乳は児ポで
大量の誤認逮捕が発生する
そんなわけには行かないから
絶対にメッセージの中身も
送り人の情報も覗くに決まってるし 意味あるの?
zipにパス付けてUPすれば検出不可能だろ。 検閲になるから日本だと憲法違反で無理だろうけど、本来勝手にデータを送る機能なんてあってはいけない機能
写真どころかそれ以外のデータを送っていてもおかしくないわ おれはね、 コロナの時期に痛感した。 性善説では絶対に行かない。 人間とは生まれついての悪である。騙し打ちで何をするか分からん。
俺はお人よしじゃない。 クラウドとかじゃなくて
端末の中まで監視してくんのかよ
キモすぎ >>937
お前のいう流行りは数人程度の規模なのか?スマホで写真撮ってる人の方が圧倒的に多いよ >>940
そうやって管理するサードパーティのライブラリアプリなら抜け道になりうるけど、Appleならストアでアプリを塞げるからな 「他の写真は検知しない」 って、一番見られたくない写真を見ておいて
それを言うかw >>935
あー羽生えてっから!じゃ羽つけたロリ写真は表現の範囲内すか。天使を表現してる訳だから。 分かりやすい正当性を主張しておいて大義名分を得て
あらゆる無関係の情報も堂々と盗み取れるんだから恐ろしいね 玉ねぎの画像をFBにアップしたら卑猥と認識してたのなかったっけ? 高性能の中華アンドロイド一択になってきたか
やっぱりアンドロイドはオープンソースだし安心かなぁ siri「なんやコイツ性器とか裸の写真ばっかりやんけ!全部没収したろ」 人々が反対しづらい大義名分を掲げて監視を進めていくとか酷すぎるわ 画像データだけだと思っているやつは騙されているよな まあ、少なくともAndroidではプライバシー的な問題が大きすぎて出来ないだろうね
Androidで同じことをやろうとすると全領域をチェックする事になるけど…流石にねぇ >>951
自己判断だね。
ただし天使の逆鱗に触れたら、この世では味わえないような恐ろしい報復が待ってるだろうけどなw いや
クラウドはスキャンしてると今まで思ってたけど
スキャンしてなかったの? アップルはやっぱあかんな
他人のエロ画像フォルダに手ぇ突っ込むとか聳え立つ糞かよ >>956
だから自分のガキの写真はそれだけでは検出されない。
関係ある時はその動画がポルノサイトに流出した時なんだから子供が大切なら賛成しとけ。 他人の家へ勝手に入って違法なものがないか探して、見つかったら警察に通報する
こんなことするのが違法でないわけがないのに、
インターネット業界特有のやった者勝ち論理だな >>29
AIがタマネギをポルノ画像と判別したこともあったんだっけか 何であろうが人のものを勝手に覗き見て当局に通報するようなことをするサービス、製品なんか使いたくはないな 目的は児童に対する性犯罪を防ぐことだろう
そのための手段としてデータ「所持」を犯罪とすることもかなりの飛躍だが
さらに個人所有のデータを勝手に解析するってさすがに踏み込み過ぎじゃね? これは怖いわ
他のものも見ようと思ったら見れるってことだし、ファーウェイより怖い 自ポ対策!反対派はロリコン!で反対意見を封殺してスマホのデータ抜き放題って訳だ これはお前らのApple一揆が起こるやつだわ
母ちゃんに勝手にエロDVD捨てられたらお前ら発狂するだろ?(´・ω・`) 日本の場合アップルの日本法人が監視して警察に渡すんか? クラウドストレージなんて管理側が絶対にみてるだろ
パスワードデータをonedriveに置いてるけど、開くためのキーファイルは別のクラウドに置いてる >>918
こんなことで反応する奴は性犯罪予備軍だよな
監視対象だよ
ってどんどん疑心暗鬼になって密告通報社会になるんだよな
暗黒だなwwwww だから画像データを直接検閲するわけじゃないだろ
お前ら猿かよw >>952
2次元というかCGによる生成画像
日本でも実在する児童を素材にしたCGは児童ポルノという判決が最高裁で確定して >>4
皮戻して撮影したら児ポだな、俺も
取り敢えず撮影しとこう こんなのあり得ないだろ
人の家の中に勝手に監視カメラつけるようなモンだ
勝手に人が勝った端末覗くことを是とするのはあり得ない >>982
AIで疑わしいのを判別して
それを社員が目視で確認して警察に通報じゃね? お前らの、好きな女の子への気持ちを書いた日記とかも読まれてるからな(´・ω・`) >>843
え?
自分の為にってどういうこと?
半裸の自分の子供を残してどうするの?
あたおかなの? 自分の子供の写真でも検知されるんだろ。
いい迷惑やん。 今後、テクノロジー(5G 6Gなど)がどんどん進化して、
カメラを起動して アングル・ピントを合わせたら、
スマホが、 勝手に↓
「この画角では 児ポで許容できません! シャッターボタンは
押さないでください」 ← って しゃべるようになると思う。 検閲の手始めに叩きやすい所からって感じなんだろうな。新コロで激しい検閲してる奴に憧れてるようだ。 >>990
ラブレター書いても出す勇気がない
appleが代わりに届けて欲しい >写真、動画、コンピュータ生成による画像などの(ただしこれらに限定されない)あらゆる映像描写が該当する
二次元も?
こういう布地の少ない見た目が未成年のソシャゲキャラのスクショが入ってたらそれもアウト?
https://lh3.googleusercontent.com/O8W9W8jrOiEt5MR2uxI6TbNdus9ca4dtj0UgfD2TpXTYEJkpwKmdrJgLVtKn82Y4KTArexoSDO6maiRWKrATJDmV0VOIpZOihKXi0LmfuMHB
iPhone使いでエロ同人やってる奴はスマホ内やiCloudに自作保存されないように気を付けないとアカンな
まあ俺はソシャゲもエロ同人もやってないし泥だから今のところは関係ないんだけど このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 1時間 52分 22秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。