【迷走】アップルがメッセージアプリで送受信される性的な画像を検知し子どもの親に警告する新技術を発表 [かわる★]
■ このスレッドは過去ログ倉庫に格納されています
Apple(アップル)は、子どもがMessages(メッセージ)アプリを通じて性的に露骨な写真を送受信した場合、子どもと親に警告する新しいツールを、2021年後半に導入すると発表した。この機能は、アップルのプラットフォームやサービスにおける児童性的虐待素材(Child Sexual Abuse Material:CSAM)の拡散を制限することを目的に、同社が導入するいくつかの新技術の一部だ。
これらの開発の一環として、アップルは消費者のプライバシーを尊重しつつ、iPhoneやiPadなどのモバイルデバイスやiCloud(アイクラウド)にアップロードされた写真の中から、既知のCSAM画像を検出できる技術を導入する。
2021年後半に予定されているソフトウェアアップデートにより、アップルのメッセージアプリは機械学習を使って画像添付ファイルを分析し、メッセージアプリで送受信される画像が、性的に露骨なものでないかを判断できるようになる。
これらの警告は、子どもがそのコンテンツを見ないという正しい判断をするように導くためのものだ。
しかし、それでも子どもがタップして画像を見ようとすると、さらに別の画面が現れ、写真を見ることを選択した場合、親に通知されることが伝えられる。また、この画面では、親たちが子どもの安全を願っていることを説明し、本当は見たくないのに見るようにと強制されているなら、信頼できる人に相談するように勧めている。助けを求めるためのリソースへのリンクも表示される。
画面の下には写真を見るための選択肢は残されているものの、デフォルトで選べるようにはなっていない。その代わり「写真を表示しない」という選択肢の方が目立つように画面がデザインされている。
コミュニケーションを妨げてアドバイスやリソースを提供するだけでなく、システムが保護者に警告を発するこのような機能は、子どもを性犯罪者から守ることに役立つ可能性がある。子どもが性犯罪者から被害を受けた時、親は子どもが相手とネットや電話で会話を始めたことにさえ気づかなかったというケースが多いからだ。性犯罪者は子どもの心理を巧みに操って信頼を得ようとし、子どもを親から引き離して、コミュニケーションを親に内緒にさせようとする。あるいは犯罪者が親に近づいてくるケースもある。
アップルのテクノロジーは、性的に露骨な内容の画像や動画が共有されることに介入し、特定して、警告を発することで、どちらのケースにおいても役に立つだろう。
しかし、CSAMの中には、いわゆる自己作成型CSAM、つまり子ども自身が撮影した画像を、子どものパートナーや仲間と合意の上で共有するものが増えている。セクスティングとか、裸の写真の共有などだ。子どもの性的搾取に対抗する技術を開発している企業のThorn(ソーン)が2019年に行った調査によると、この行為は非常に一般的になっており、13歳から17歳の女子の5人に1人が、自分の裸の写真を共有したことがあると答え、男子の10人に1人が、同じことをしたことがあると答えている。しかし、その画像を共有することで、性的虐待や搾取の危険にさらされることを、子どもは十分に理解していないかもしれないのだ。
アップルの新しいメッセージアプリは、これに対しても同様の保護機能が働く。この場合、子どもが性的に露骨な写真を送ろうとすると、写真が送信される前に警告が表示される。それでも子どもが写真を送信しようとした場合には、保護者にメッセージが届く。
アップルによれば、この新機能は2021年後半に行われるソフトウェアアップデートの一環として、まずは米国から、iOS 15、iPadOS 15、macOS Monterey(モントレー)のiCloudで、家族として設定されたアカウントで有効になるとのこと。
このアップデートはSiriと検索にも適用され、子どもや親がオンラインで安全に過ごせるように、安全でない状況で助けを得るためのガイダンスやリソースが拡充される。例えば、ユーザーはSiriに、CSAMや児童の性的搾取を報告する方法を尋ねることができるようになる。また、ユーザーがCSAMに関連する疑問を検索すると、Siriと検索が介入して、そのトピックが有害であることを説明し、助けを得るための情報や相談先を提供する。
https://jp.techcrunch.com/2021/08/07/2021-08-05-new-apple-technology-will-warn-parents-and-children-about-sexually-explicit-photos-in-messages/
関連記事
【愚か者であれ】アップル、ハワイ出身の女性2人によって作成されたワクチン接種反対派の出会い系アプリをApp Storeから削除 [かわる★]
https://asahi.5ch.net/test/read.cgi/newsplus/1628518736/ 人生詰んだらハイエースでクジラックスするわ(´・ω・`) 盗撮もできないようにして欲しい
5chの盗撮スレ酷い!キモイ!間違いない!
女だけじゃなくて男も標的になってる twitterのはスジっぽいやらキノコ画像や絵やらでもセンシティブとか表示されるよね >>2
近いどころかまごうことなき検閲
こんなの支持してるのはガイジだけや 同じ技術で
尻、エロい画像を探してくれ
って命令ができるようにならんかの? 導入する建前は立派やけど、この技術は応用したら色んな事に使えるな。 >>12
アップルって病的な程にエロ系嫌いだからまぁそっちは期待すんな しかし親はそれを敢えて叱りつけることもせず
保存し続けるのであった。 子供がこっそりと読んでいるエロ本をわざわざ公開しなくても・・・ 子供がツィッター見ていたら
関係ない画像でもバンバン親に通知行くだろうな(´・ω・`) エロ動画の話まで子供とオープンにしてるからその機能邪魔なだけですわ アワビ食べた!
松茸取ったよ!
って画像友達に送ったら親に警告いくんか… 問題は猫や動物の画像をヌードと認識するのかどうかだ LINEの情報があっちにダダ漏れ!
程度じゃすまない話じゃないかこれ。 >>10
家に盗撮のカメラが設置されてて調べてたら出てきた(´;ω;`)キモすぎな世界がある。 ナスとかでさえ誤検知しまくって使い物にならんのだろどーせ 掲示板フィルタリングシステム「サイバーコップス」の中国特許取得 及び 「わいせつ画像認識システム」の国内特許取得について
https://www.gala.jp/pdf/pr_20041214.pdf エッチな大根やさつまいもの画像でも親に通知行ったりして >>1
いらんことすんなや!
愛人にちんこ画像送ったりしづらくなるやんけ! >>8
というかエロい盗撮より最近では電車や街中でまんさんが別に迷惑行為してるわけでもない普通のそこらのオッサン盗み撮りしてSNSで笑いものにしてるほうがむしろ多いくらいじゃね?
Twitterとかで拡散されてるの結構よく見かけるぞ
まんさんへの盗撮と違ってそっちは撮られるほうが悪いらしい ムチムチの肘の内側を撮影して送信したら刑事さんが家宅捜索しに来るって寸法よ お前らオワタww
>>8
キモいと言いつつ盗撮スレを見てる奴w
俺はそんなもん存在すら知らなかったぞ >>30
宣言した上で導入するなら良心的だろ
LINEは政府に嘘ついてたからな >>41
親への説明用にそういうの保存しとけばいい 全通信を監視していることが証明されましたな インターネット >>44
2chの頃からそういうのあるじゃん
実況板とか晒し板とか
ゲーム系でも盛んよ 娘の卑猥な自撮り画像を彼氏に送ると父親にも転送される アップル社員が大量のくぱぁ画像で学習させてるんだよね
たのしそうだな >>49
全通信は無理
アップルのは復号してアプリケーション層まで引き上げたデータだから監視できてるだけ 次に来るのはAIに対する不信を検閲
やがて人類はAIに管理され… マスクしない権利を必死で守る割に
こういうのはアメリカ人すんなり受け入れるんだな >>34
全てふるいに掛けないとアウトの画像を検知出来ないからな
つまりそういうことよな やろうとすることの目的とかは分かるけど
これって「新技術」って言うの?
ポルノ画像かどうかを判断するのは前からあるし
それを通知するなんてただの設定操作しだし 思春期の息子を持つ母親は大変やな
エロ本を並べたり机の上に置くだけじゃなく
親宛に送られてきたデータを息子に転送すれば良いの?
それとも履歴をまとめて机の上に置いとけば良いの? >>57
エロ監視はあくまで口実だろうな
恐らく売電からの意を受けて集会などでの集合写真や自撮りからトランプ支持者を特定して監視下におくことが主目的なんじゃね? >>58
世間での話とするか、アップル製品内での話かの違いだろ。
アップルは自社製品の話をするんだから新技術となろう。
新技術と言って恥ずかしいかどうかは別として。 新技術でも何でもねぇ
エロ画像送れないようにしとけよ どうやってチェックするのか知らんが気持ち悪い事しだすなよ 子どもちんちんの包茎男子が自撮りすると通報されるんや 自動的に検知するんだろうけどすべての送信画像を
とりあえずチェックしないといけないことになるだろうからな
全部アップルに把握されるのか 顔認証の技術があるんだから裸認証の技術も可能だろ
そもそも写真取れないようにしたらいいじゃん カメラ屋で現像しなくてもいいからデジカメも普及した感じもあるからな
すなわちあんまり人に見せられない写真も撮りやすくなったということw >>71
まぁ、昔はある意味DPE屋が検閲してたからなぁ
ヤバい写真は焼いてくれない >>15
Think Differnt
って言ってるだけのテレビCM、東南アジア系っぽい10歳くらいの女児の丸裸、縦線まで丸見えのヤツ、みたことあるよ。
ピザボックスとか造ってた時分、PowerPCがでる少し前くらい メッセージアプリを通じて送受信した場合だけなら自分で撮った分は大丈夫か。 『あなたの息子さん、今息子さんシゴいているかも?』 そもそもアポーはこう言う物だ
だからアポー嫌いだわ アップルはこの子供がどうのこうの以外にも全部の情報を勝手に使ってる可能性があるから絶対に使えません
企業秘密をアップルにバレる可能性があるから Apple はもう完全に禁止です >>1
iphoneはプライバシーって広告出しといてこれかよ
しねよ >>4
CEOのTim Cockからラブレターが届きます エロ画像自動削除機能を実装される日も近いな・・・(ヽ´ω`) 黒人とゴリラの区別もつかないAIにそんなこと出来るのか? >>44
家にカメラ設置されてって書いてあんだろ嫁 つまり、このメッセージを受け取った時には、
すでに手遅れということだなw こういう警告が出ても、ダムの画像とかなんでしょ
2ちゃんで学んだ 今の写真アプリでも検索欄に
キーワード入れると分類されて
表示されるしね エ○ウィーヴがベットの下の性的な雑誌を検知し親に警告する新技術を発表 >>98
判断できなかったからという大義名分で片っ端からサーバーに送るんじゃね 次は性犯罪を未然に防ぐという名目でマイクを勝手に常時オンにしてユーザーの会議をすべて盗聴、録音するようになります 未成年向けの機能制限した専用スマホでも作ってあげればいいのに
もともと宝の持ち腐れだろう 1つ許せば次は?次は?と監視警告対象が増えるだろ
いち企業が警察を超える権限行使すべきではない >>8
スマホのインカメラにシール、または手帳型カバー
タブレットのインカメラにシール、または手帳型カバー
ノートパソコンのカメラにシール
これ基本中の基本
というか傍受法もあるしスマホ、タブレットから室内を見られてるし、固定電話、スマホ、タブレットから室内の会話も聞かれてる
覗いてる(会話を聞かれてる)のは盗撮犯(盗聴犯)だけじゃなく警察も覗いたり会話を聞いたりしてる
他にもアプリ会社の社員達も覗いたり会話を聞いたりしてる
盗聴犯や公安などは室内の家電・天井照明・火災報知器などにカメラを仕込んだり、トイレと風呂場の天井の換気扇の所にもカメラを仕込む >>1
Appleのサーバーを経由するという事だな
ジョブス亡き現在、ロリコンバイデン大統領がDMZに設置されているアメリカ政府CIAのサーバーにやり取りされたエロ動画像を保存するシステムを作らせたんだろう。 >>1
これで親が子供のLGBTを早期発見できるね。 >>47
ミスはミスで仕方ないとしても
虚偽報告とはコンプラなんて糞と思ってんだな
それが許される組織なら働き易そうとも言えるが糞だ 小太りも通報されるぞ。アメリカンは巨デブになるからセーフだけど Windows10もAndroidもすでにやってるだろ
マイクロソフトにパソコンの全ファイルを送信してるとか結構話題になってたぞ
グーグルもファイル監視して警察に通報までやってるし逮捕者もいる 性的な画像を検知する為に性的でない画像も
全部スキャンされるんやで >>125
子どものプライバシーを守るためです
プライバシー重視で安全安心のアップル googleのAIが黒人とゴリラの区別つかなかったけど、これは区別出来るのかな 真面目にやってる振りして人権侵害で飯を食うGAFA
こんな物いつでも出来るけど本気でやったら失業してしまうw まぁgoogleもアップルもいやというほどのサンプル抱えてんだろ
じゃなきゃ出来ないよな 性的な画像がどうこうよりあらゆる画像がスキャンのためにアップルに送られることが問題
LINEもそうだけど自分のプライバシーが他人に見られても気にしないみたいな人が増えてない? 純粋にキモチワルイ
アップルは神にでもなったつもりか? 疑似ロリ画像とかまで判別できるのか?医療関係者ですら法廷で誤認したんだぞ? >>139
現状そこまでの判別は不要じゃないかな
あくまでも児童がポルノと接する又は発信することを制限する為だから
肌色判別とか人体判別はそれなりに出来てるから肌色が人体の何パーセント以上になるとポルノ判定とかそういう形になってるんだと思う >>139
ロリの話じゃねえよ
子供のケータイにエロ画像送り付けられたり逆に子供が要求されてエロ画像送ったら直親に知らせるちゅう話 ゴリラの画像を誤認識して黒人の親に通報して怒りを買うに1ガバス。 子供のスマホはiPhoneだけになるな
今もほとんどiPhoneだけどw 泥なんか日暮の底辺か、余程のガジェオタくらいしか持つ気ないから おれがオナニーして射精したら広瀬すずに通知がいくアプリ作ってくれ >>136
その流れは止められないだろうね
そういう人ばかりになっていくんだよ今後 子供向けにカメラ無しiPhone作ればいいんじゃね >>22
恥を知れ。品性と慎みのかけらも無い、貴様は朝鮮人か。 旦那が・・・嫁が〜で、その親がNTRになったら大笑いな機能だね。 何でも送信も考えものだけど何でもネットに繋がってるのもだんだん気持ちわるくなってきたw アップルって、アメリカで捜査機関の要求突っぱねて、操作に必要なiphoneか何かの暗証番号開示しなかったよね
だから、なんか違和感あるわ 高校生くらいの女って性欲モンスターだから付き合うとかなりの確率で自撮りのえろい画像送ってくるの本当めんどいよな、性欲についていけない えーマジiPhone!?
iPhoneが許されるのは小学生までだよねー >>148
好き嫌いはどうでもいいけど、ヒステリーすぎるわ
シェアとか現実とか見ようぜ。他の林檎ユーザーが基地害だと思われるわ むしろ送る側に警告と自動的に警察に通報するシステム組めよ >>1
>性的に露骨な写真
記事の内容からすると裸かどうかを判別するのだと思うけど、顔認証におけるゴリラ問題のように、
肌の色でいろいろ面倒くさいことが起こるような気がします。 >>160
だから、底辺が占めてるからシェアもデカイだろ。
あっちこっちのスラムみたいなとこぐらしの奴でも持てるのが格安売りしてる泥機だろ。
お前も変ないろつけてないで現実見ろよ。 >>153
お前のところの子供、セックス知ったら狂いそうだな あれだけプライバシーの話してきてたのに
一気に監視方向に舵きったね >>165
完全じゃないから人のチェックは入ることになるやろね
フェイスブックの監視もAI+人力 Facebookは知らんけどgoogleもぼちぼち動き出してるし、msもそう言う方向に行くだろうね
嫌ならsecureos端末に乗り換え、自前でファイルサーバー立てるしかないね 26歳のオレの彼女にヌード画像を送らせたら
児ポ扱いされて アイホン壊されるかも知れないわ。 >>170
プライバシーを守るため、プライバシーが含まれる画像の流出を監視するってことだぞ
基本線は全く変わっていない >>173
>26歳のオレの彼女にヌード画像を送らせたら
そもそもこれがキモイことに気付け。 法律とびこえて一企業がこれをやる権限なんてあるの? 黒人女児が動物園で撮った可愛いゴリラの写真を友達に送ろうとしたら親に「おたくのお嬢さんが全裸の写真を送信しようとしてます!」って通知が行って親が黒人差別で裁判起こして一獲千金
これが現代のアメリカンドリーム 人同士が出会わないことが一番いいことになりそうかも >>158
そのうえ児童ポルノ法では被害者()という >>180
女の性欲を舐めてるとしか
appleが勝手に覗き見て通報するってのが、相当おかしい
自分のエロ画像撮ったJKを通報して、送った方向で判断しないと つうか何歳でもビキニ以下はNGにしちゃえよ 男もな 検知できるならブロックしろよ。
届いた上で親バレ強制とかなんの罰ゲームだよ。 ■ このスレッドは過去ログ倉庫に格納されています