【IT】わいせつ画像を撮影すると保護者に警告送信するアプリ 開発中の愛知県警へ学生がアイデア [凜★]
■ このスレッドは過去ログ倉庫に格納されています
■FNN/東海テレビ(2022年7月1日 金曜 午後10:42)
児童の性被害防止のため、愛知県警がスマートフォンアプリの開発を進めています。その普及に向け、藤田医科大学の学生らが若者視点のアイデアを発表しました。
愛知県警では、ベンチャー企業と協力し、スマートフォンでわいせつな画像を撮影するとAIが自動で削除したうえで保護者に警告するメッセージを送信するアプリの開発を進めています。
※全文は元記事でお願いします
https://www.fnn.jp/articles/-/383650 アプリじゃ意味ねーな
andoroidとiOSがAIで弾いてくれれば防げるけど >>1
僕のカメラアプリ、猫を認識してるから、楽勝で作れると思うよ。 問題は小学生にスマホ買い与える金持ちの性犯罪者がいる事だな 人間みたいな形の野菜とか、とろとろのオムレツを至近距離で撮ってみる学生をそっと応援したい >>1
発想が検閲で中国なんだよ
画像弾くのは受け取る側でいいだろ
全員強制の仕組みを作ろうと考えるな気持ち悪い ペアレンタルコントロール必須にさせろよ それがスタートだろ 余計なことすんなクソ野郎が
多くの人の楽しみを奪って何が嬉しいんだ
性格悪すぎだろ 子供傷つくだろこれ
スケベ行為なんて親に隠すもんだし わいせつ画像撮るような奴のスマホにこんなアプリ入ってるかよw
少しは考えろよ 学生「ベッドの下に隠してあったエロ本が机の上に並べて置いてあったんですよ・・」 ピロリロリン♪お子様のわいせつ画像が撮影されました! 消されたら誤爆されても証明できず、親にいやらしい子と思われる
ぐれるだろ 学生「ベッドの下に隠してあったエ○本が机の上に並べて置いてあったんですよ・・」
愛知県警「なるほど なるほど」 すげえ気もちわるい思考してんな
藤井医科大学の学生は
頭おかしいんじゃねえの どう考えても違法だよな、アプリの時点でやばいし、ほかに送信する機能とかやばいでしょ。 皮膚にできものできた
と接写すると肌色多めで通報されるのか 子供に持たせるスマホにインストールする前提とすれば、自撮り送らせる犯罪だけに有効ってことね まあ普通デジカメとかスマホ買ったらまずちんぽ撮るよな 判定のために自ポ画像サーバーに送った時点でサーバ側逮捕じゃね 筋トレ後にパンイチ写真よく撮るんだけどわいせつ認定されたらどうしよう >>33
スマホ持ってるか?
アプリなんて簡単にアンインストール出来るんだが
iPhoneだったらAppを削除で綺麗さっぱり消える >>36
もちろん愛知県民じゃない
そして藤田の書き間違えだ 隠れてやる隠れてやるってのが危ない道にいっちゃうんじゃない?
俺みたいな顔も名前も住所も分かるおじさんにならエッチな画像送っても大丈夫って教育した方が良いんじゃないかな? >>22
警察のサーバーに画像が貯まるようになっとんねん。 >>37
わいせつかどうか判断するからここに上げてみ 管理社会を望んでやがる
警察国家にでも移住してやれ
赤の遺伝子を持つ脳みそが なるほど、これ300円とかで売れれば相当儲かるな
これから書くわw AIってサーバー型?
それだといっかい裸がアップロードされる事になるけど 痔になったときケツアナ写真を撮って確認したけど親に連絡いってたら嫌だな AIが自動で削除したうえで保護者に警告?
警告だけ?
証拠を削除した上で?
犯罪者大喜びじゃんw そんなのより、性犯罪を犯したら即ミサイルが飛んでくるの開発しろ 猥褻の定義がどうなるか
いろんなフェチが議題にあがるか てかスタンドアローンでAIの機能を組み込むことは難しいだろうから、
撮影内容を自動的にネットで AI のサーバに送る、って仕組みになるぞ?
つまり別にわいせつ画の撮影だけじゃなく、すべての撮影行為が自動的に何処かに送られる仕組み、それをインストールしろ、って言ってる w >>39
児童用スマホに削除無効できないようプリインストールしとくってことじゃないの
慣れてりゃrootやPC使って無効化する子もいるだろうが一部だろうし >>42
警察じゃなくても、実は削除されていなくて後に大問題になる、に1000ペリカ >>1
アプリが完成したとして、誰がそんなアプリインストールするんだよ
OSに組み込まれてるとかじゃないわけだし そもそもの話、スマホにペアレンタルコントロールでカメラ使用不可にすればいい話 >>66
素直に愛知県警の言うことを信じる莫迦な親 w 学生が提案したと言えば反発少なくなるとでも思ったか おれがもし美少女女子高生なら、誰かに送るとかなしにぜったい自分の体撮りたくなると思うな >>59
撮影した画像全てが一旦サーバーに送られて、
AIによる検閲を受ける、ということか。
でも、iPhone だと写真はiCloudに自動保存だから、
検閲一本手前までは同じかもな。 自動削除には学習データが必要なので
皆さんの裸をとります いなり寿司の写真撮ったら、
「お稲荷さんは卑猥」って判断されるの? 自動削除した後に証拠写真は教師に転送しますね
先生<いやらしい動画は自動で消えるので仮に撮影されてもあまり気にしないように 撮影者を何歳で想定してるのか?親へ送信って小中学生がって事か? AI判定するためにまずサーバーにアップロードします ん、俺が彼女ハメ撮りしたら俺の親に警告がいくんか? 愛知県警とベンチャー企業に個人情報渡すのもきめえけど 単純に児童ポルノ厳罰化だけでいいよ
右往左往有れど
エロはパワーだし 撮影写真を外部に転送してチェックか
猥褻画像じゃなくても勝手に転送されるの嫌やろ
よー開発GOサインでたな
金になる気せえへんのやけど >>86
小学校低学年とかなら騙されてってのがあるからまあだけど高学年とか中学生ならその後の対応難しいよね >>77
実はエロい人が1枚1枚吟味して、ちょっとUSBにコピーしてから削除するかも。 自分のちんちんを後世の自分のために激写するのも親に知られるのか
せちがらい時代になったもんだなw こんなアプリよく信じれるな
ちやんとコード審査しないとどこに送ってるか分かったもんじゃ
あと真似した中華アプリとか作られるきっかけになりそう >>102
ワシのチンポも昔はこんなにギンギンに反り返ってたんやでって介護されながら看護師さんに見せたいよな 普通に撮影してても
>>98
この手の錯覚みたいな感じで誤作動したりしないんだろうか https://i.imgur.com/SOrY512.jpg
この北河佑樹って東海学園大学の学生で警察官目指してるとか言ってたけど
愛知県警とかに就職できたのかな
ニュースが出たのが2017年だからもう5年前か 子供「わー、動物園にゾウさんいるよ。撮影しよっと」
AI「ちんこを撮影しましたね?削除します」 保護者に注意の前に警察が飛んで来るだろう
藤田医科大学開発陣大丈夫かい?
01思考リーダーが唾吐き出して仕切ってるんじゃないか? AIへの判断材料は誰が提供すんの?
警察の押収品ってこういう使い方出来るの? AI判断で保護者に警告は良いとして自動削除は誤動作の時には勝手に資産削除するんだから器物破損になるんじゃないの
撮影時にAIが判断して怪しい時に「この写真を保存すると保護者の携帯に転送されますが良いですか?」って警告文が出るようにすれば良いんでないか 真っ先に開発者が画像をご賞味出来るシステムなんだろ? >>1
ナニコレ・・・色々ヤバくて一体どこから指摘すりゃ良いんだ?
1)大学生がアプリ作ってみましたじゃなく、アイデアですと、はずかしい妄想垂れ流したこと
2)妄想内容が小学生レベルの幼稚さと、無意味さと、更には気持ち悪いこと
3)誰それがSNSで「イイね」と考えなしにするだけならわかるけど、警察組織が真に受けて予算化申請したこと
4)アホみたいな新規事業なのに、コネかザルかの審査で予算案が通っちゃって実行されたこと
5)AI開発を実施するなら、ベンチャー企業が法令に違反したアダルト画像等の保有をしていないと無理なこと 顔を撮影したらわいせつと判断される女子高生出るだろうに可哀想 てか「親が子どもの行動を監視したい」ってのは需要としてあるわけか…
iOS だとムリだけど、Android だったらオレにも作れるだろう
具体的なニーズが知りたい お万個のどアップがオッケーで、海水浴の記念写真が消されることになる
わいせつの判別なんて不可能よ >>1
文系の教養が全く無い医学生らしい発想ですわ
理系ネトウヨと同系統 >>1
そのAIは機能向上のために特定のサーバーに生データを送るんだろ?
俺をサーバーの管理人にさせろ! 50の息子がやらかしたら80の婆さんのガラケーのアラームが鳴るのか >>1
警察には大量の貴重なポルノが人知れず眠っているという 開発するには参考画像が必要なので取り敢えず撮影させて下さい >>130
下請けしたソフトウェアハウスの社員が勃起しながら、アイディアを出した藤田医科大学の学生(当然勃起してる)と、逐一決めるのだろう
勃起しながら w >>19
知恵袋にちんこの写真のっけて普通ですか?って質問する高校生よくみるんだが 機械学習とか全然詳しくないけど、
これ、supervised learning として、実際の児童ポルノを多数読み込ませて特徴を抽出して数値化する作業が必要なんだろ? 両親がSEXすると自動的に通知してくれるアプリも開発しろよ データベースはどこにあるのさ
それ自体完全にアウトだろ 本当にわいせつかどうか、まず俺のスマホに送って判定させたほうがいいんじゃね? AIに学習させるための画像が必要です
学生うまいこと考えたなw 誤警告多発も画像は自動削除されているため確認できず
一方的に猥褻扱いされた児童の自殺相次ぐ
そんな未来 松茸とかキノコ類を撮影したらそういう風に判断されそう どうせ肌色が多かったらバツ判定するYouTubeの童貞AI以下なんだろ
サイクロプス先輩「フルメタルボディで全裸です」
アプリ「よし通れ!」 判定でサーバーにデータ送信した時点で児ポ会社でアウト 子供「パシャ」
アプリ「・・・」
子供「パシャ」
アプリ「・・・」
子供「飽きたからやーめた」
アプリ「ピロリロピロリロ!!!!!オトウサン!」 こわすぎるわ。
保護者にわいせつ画像が送信されるなんて
わいせつ画像じゃないのに、わいせつ画像に見えるものも送信されちゃうのかしら? 判定の仕様どうやって決めるの?
まさか本物の未成年の写真を用意するわけにもいかんだろ >>159
わいせつ画像を認知して削除
削除した後に警告メッセージが送信されるだけだぞ?
プールとか海の写真でも行きそうじゃね? 教師データ作成のために未成年の裸の写真たくさん集める必要あるね てかスマホなんか持たせるなよw
バカなガキが児ポをバラまいてるのは親が悪いんだよw責任とれよ AI品質向上のためとか画像分析のためとか称して、撮った画像全部指定のサーバに送られる
そのサーバから情報漏洩したら大騒ぎだろうな まずはそのわいせつ画像が親に送られて
親御さんが娘の成長にびっくりするシステム 開発者は色々見れてタダでも作りたいくらいだろうなw 俺の定期的に自分のアナル撮るけど両親に届いたら困るな 娘が撮った写真がすべて親のスマホに送られる
システムなら今すぐ結婚して娘作るわ >>162
自動で削除されて復元できず親に通知だけいくとなると
誤判定した場合に滅茶苦茶揉めるだろ
それこそ162が書いているように水着写真で誤判定して親子で一生不信感の種になるのがオチだな また誰も使わないものに金をかけるのか。大前提としてお上が作ったものをスマホに入れたくない。誰も信用してない。 >>182
学習した結果
人工ポルノ画像を作れるように 恥ずかしいなこれ
てか思春期に自撮りしてみたりするじゃん…? 昔やったな
筋トレのモチベ高めるために週二で経過撮ってたなww 送らせた側の罪を無期懲役くらいにすると一気に減るのに もちろん自動的に愛知県警の収集愛好課に送られるんだろーな、警察が児童ポルノに必死になるのは理由があるんだよ 担任教師にも通知が来ますか(*´Д`)/lァ/lァ
女子だけで良いです やめて差しあげて
女の子被害防止になるからいいけど
男子は色々撮るから
人権侵害です >>188
大賛成
こうまでして根本的解決を望まないのはいったいどこのどいつらなんだろうな
アプリで云々とかはどうせ中抜き広告社あたりの入れ知恵だろうし まず言い出しっぺ学生たちが実験台になるんだろあぁん? アプリがどうのこうのより、
その本質に迫るべき。
送信した画像がどう扱われるか、自分を大切にするにはどうすればよいか?
それができなきゃ、かい潜るだけ。 >>24
な〜に〜やっちまったな〜
男はだまって全裸待機
男はだまって全裸待機 こんなんに興味深々の医学部学生のアドバイスか、参加した奴リストアップされるな AIが自動で判断って言ってるけど、「自動判断」のさせ方って分かってるのかね?
AIに自撮りの猥褻画像だと判断させるためには、大量の教師データが必要になる。その教師データをディープラーニングに食わせ、かつその正解、つまりこれは自撮りの猥褻画像、これは違うという正答も食わせなきゃ、AIの自動判断なんてできない。
どーやって教師データを準備するの?エロサイトから収集した画像データだけを食わせても、全てを猥褻画像と判断するおバカなAIができるだけ。大量の非猥褻画像を食わせるのが大仕事。しかも学習したAIが使いものになるかの試験は、もっと大仕事。
学生の発想は悪くはないけど、AIなんて所詮赤ちゃんの脳と同じなので、親がどう教育するかが一番大事なこと。 >>179
しかし撮ったやつを証拠として親に送信するようにすると犯罪者側がターゲットにインストールさせてエロ自撮り自動収集てなことになりかねないよなあ 「開発にはわいせつ画像のデータが大量に必要です!」 おそらく教師あり学習だから
アプリを作るために大量の参考画像が必要になる こんなアプリどんな親がインストすんねん
撮った画像動画全部サーバーにアップして検閲されんだろ?
猥褻以前に気持ち悪すぎやし、万一親が入れててもそんなアプリすぐ削除するわ ゼロから製作するとなると、
AIが学習するための参考画像が大量に必要になるはずなんですが・・・。 警告送信とやらを受け取ったとして、そういう事態に対して適切な対応が出来る親がどれほど居るのだうか 本物のAIは我々が想像するようなサーバーでは動かないという。 送らなければいいだろうが
そんなことまで管理しないといけないのか?
今の若い奴は猿以下の知能しかねえのか? アプリが正常に動作するかどうか?何度も確認をしなければならないが… 娘のスマホを自動で俺に写真を送らせるように設定する。 これ不特定多数のガキに騙して入れさせるとポルノ収集装置になるな
ハメ撮り画像や自撮りヌードが集め放題になるw 外部記憶デバイスを買い与えるな
シンプルな電話を買い与えろや
成人してからなんぼでもすきな電話機こーたらええやろ ローカルにとった写真を検閲されるの
怖くね?
赤ちゃん産まれましたカシャ→ポルノ!
友達とプールに来ましたカシャ→ポルノ!
こんな風にしたいの? >>66
子供向けのモデルへのプレインストールや子どもにスマホを与える時とかだろうな
問題はそういった画像を取りかねないお子様はすぐに無効化する術を学ぶだろうってとこだ FacebookやTwitterだと桃や玉葱画像で警告くるんだけれど。
食器洗い用スポンジ画像載せただけで猥褻警告来たぞ。 うわーそんなもの送られてきたら親はどんな気持ちになるんやと思うけど現にやるやつおるから必要なんかもな 旭川の高校生以下の子どもがスマホを保つ場合はこれの導入を義務付けるべきだな 間違った判断をしたらどうするの?
モンペを怒らせるだけ YoutubeのAI判断なんかみても
誤判断したときどうするかが問題 >>234
対象画像が削除されて警告だけが飛ぶクソみたいな仕様だと疑心暗鬼から家庭崩壊まったなしだよね >>108>>115
人間並みの画像認識能力を獲得したAIは、
人間のような「目の錯覚」を起こしてしまうらしいぞ。 誤判定でわいせつ扱いされたりしそう
なんかいいかんじの鶏肉の写真とか 学生が作って親がインストールして子供を監視するんですね、わかります つうことは開発段階で実際にそのような画像を多々撮影して試すんですね 顔認識の技術を応用すればオマンコ認識機能も作れるだろう
あ、でも誰のオマンコか特定できちゃうかも カスはアプリいれないし、旭川見ればわかるように親がカスだから >>234
だね
マジで愚かだよね、人間って
結局昔のSF漫画なんかで出て来る
あり得ないパターンを追っかけてるわけだがw
なんでわざわざAIなんか持ち上げてるのかわけがわからん ゴーストワーカーのおっさんがチェックするから大丈夫 わいせつ画像を撮影するとAIが警告して削除するアプリを開発してるんだけど
AIを学習させるためわいせつな画像をいっぱい撮影して協力してくれませんか 鏡の前で全裸自撮りとか皆が通る道なのにその機会を奪うとか最低だな 疑似ロリは?人間の医者ですらタナー分類で鑑定失敗するのを法廷で証明したのに? 疑似ロリは?人間の医者ですらタナー分類で鑑定失敗するのを法廷で証明したのに? まさかAIで判定するために一度cloudに上げるとかはないよな? >>234
AIの判定を正とする よって誤判定はありえない 既に脱獄するガキも多いのに
あと保護者パスワードを子供に教える親もいる Jk同士で写メ撮ったら警告送信
景色を撮ったら禿げたオッサンが入り込んで警告送信
海やプールで撮ったらもれなく警告送信
家族の集合写真も勿論入浴中なども警告送信 毛沢東の画像をわいせつ画像と認識されるバグが発生しそうだな バナナはわいせつ画像に含まれますか?
ハゲはわいせつ画像に含まれますか? 保護者が自分の娘(息子)使ってやらせてんだから意味ないじゃん。
保護者が子供に万引きさせるやつとおんなじ。 マンコは肉便器になりたがっているのだから自然の摂理に刃向かうなよ!!
ドドーーーーーーーーン!! マ!ン!コ!
マ!ン!コ!
マ!ン!コ!
あそれ!マ!ン!コ!
ドドーーーーーーーーン!! ガキにスマホと持たせなければいいだけ
知恵と道具を与える親も悪い 大根とか人参の写真が削除された上に親に連絡いくという悲劇 わいせつ画像警告するアプリわざわざ入れる奴なんているのかよ まぁ娘がポピュラーだろうけど、意外と夫の不貞が妻に暴露されるケースも >>284
親に仕込まれたとしてもアンインストールするよねw 保護者のアカウントハックされて、
かつ画像がバックグラウンドで送信されるような仕組みにされたら収集ボットじゃないか 黒人の検知ができなくて訴訟されないように開発がんばれよ いやアプリって削除されてお終いじゃんw
キャリアアプリとして押し付けるの?
愛知県警お墨付きスマホを売り出すの?w
誰がどこの金を使って何万個オーダーするの?w 今後はAIで個人の行動を監査する時代になっていくのかもしれないな。
ただ、Youtubeの誤BANの多さを見るに、写ってるものがわいせつかどうかを判断するのはまだ難しいのかもしれんが。 ・そのアプリを使わなければ回避される
・そのアプリ以外がカメラを使えないようにする仕組みはどうするのか
・Googleさんでも わいせつ の誤認識が多いのにまともに認識出来るものが作れるのか疑問 >>1
これ実際次から次へと娘のハメ撮り写真が仕事中に転送されて来たらどうなるんだろうな 削除されたら終わりやん
どうやってプリインスコさせんの? >>11
水泳部「うちもだ」
レスリング部「なぜ?」
学生プロレス「どういうことだ?」
ボクシング部「肌色具合か?」 >>298
子供の携帯にインスコするんだろ
チャイルドロックみたいなものだ
まあ、色で判断するから肌の写ってるものは撮影できなくなるかもな 検証ログとして検出された画像は警察にも送られるのね。
検証大変そうだからおれが引き受けるわ。 警告より、はあはあもっとみせての表示が本人に届くほうが良くない? 60代のこどおじが撮影したら
90歳の親に警告が行くんか? 後ろ姿が亀頭みたいなハゲとかいるけどどうなるんだろうか グーグルアナリティクスも似たようなもん
無知な奴は自分が何を検索してどこに訪れたかも全部記録されてることにすら気づいていない 俺も機械学習使ってアプリ作るから、大量の学習データ俺に提供してくれ >>311
何で体位をみんなの前でやってるの?
これって駅弁ファックだろ? https://i.imgur.com/I2ufpxP.jpg
変なアプリを入れたばっかりに
壁に立てかけたホウキの画像が勝手に削除されて困ってます。
助けてください。 ロリコンが必死にアプリ削除するよう促すんだろうな、犯罪者だから 正義感のある学生さんだなあ
わいせつ画像の撮影なんて100%やらないんだろうなあ100% 本当に相手のことが好きでなんとか気持ちを届けたいだけなのに
こんなのまで管理するの? 開発者が逮捕される案件
そして写真を常に閲覧しているからプライバシー侵害
AI学習のために児ポ集めても犯罪 つべのAI判定で猥褻物判定をくらう江頭は多分これにも引っかかる そもそも子供にスマホ持出せるのが悪い
ガラケーの時代からそうだが本当に必要なのは働く大人であって子供には過ぎたオモチャなんだよ これ子供がsnsとかで自録り送らされるのとかを防ぐシステムなんだろ?
良いことなのでは カメラの位置データ、撮影方向、床面等からの高さ、被写体への照度、
フラッシュを禁止にセットした時間とその時の位置
撮影時刻と枚数、顔センサーの作動間隔と被写体の姿勢と服装
すべてお前らを有罪に持っていくためにデータを収集しかいざん・・・ 学習させるには結構なパターンを認識させなきゃいけない
つまりこいつはそういう画像を大量に所持してると 目的はまあいいとして
手段が中国共産党の思想検閲アプリと同じなんだよなぁ
「誰もやらなかった画期的なアイデア」は
「先人が思いついたけどあえてやらなかった」こと
のいい例だな こういう正義感で増える犯罪も多くなるのにな
潔癖な正義感もほどほどに いきなり娘がオナニーしてる動画送られてきたら親心臓止まるやろ LINEとかも自動で親に送信で閲覧してるサイトも確認出来て消せない停止出来ないプリインストールアプリもやっとけw 何を以てというか、何が映ってるとわいせつな画像とするかなんだが、どう定義するんだろ?
こいつら裁判官にでもなったつもりなんだろうかw 肌の色面積で判定する場合、黒人の子が撮ったのがスルーされたら問題になりそう 止めるべきはそこかな?
不特定多数とメールやラインのやりとりを止めるべきでは? >>315
これ不思議だなあ
サムネイルでは完全にまんこ わいせつかどうかのジャッジはどうやってるんだ
上履きの画像まで猥褻認定されたら、AIの方がカナリの変態ということになる GoogleのAIが砂漠の画像をエロ画像に判別して有害サイトに指定してしまう話
https://i.imgur.com/6yNtTnV.jpg >>1
これ警察の予算でやることなの?
予算の無駄遣い・濫用だと思うぞ 単に削除だと誤判断っで冤罪沢山だろう、画像を5chの有識者に送って判断すれば良い わいせつ画像を撮影すると教師に送信するアプリ
のが早そう 映倫にチクるアプリ
プライバシー保護に名を借りたプライバシー侵害だな。
発想が頭おかしいんじゃないかと。 >>345
教師からのLINEを保護者に転送するアプリの方が役に立つ そもそも子供に何か秘密を持とうと言うのが間違いなんだよ
子供は子供だけ神聖に育てよう、っておかしいだろw
エロも早いうちから、きちんとその裏面、
問題と対策を子供にも教えておかないから
子供は当然暴走しちまうよ、人生経験浅いんだから
単なる怠慢だろ、親も面倒くさいとノータッチで居るのは これ、親が子供のスマホにアプリを入れるの?
それを承諾するような良い子は
わいせつ画像を撮影したり保存したりしないと思う 若者視点?こういう意味での若者視点としちゃ随分ズレてんじゃねのか? 適当なわいせつ画像を生成するアプリの方が安全性高くなるな >>348
場合によるでしょ
シモ狂いになるのは低偏差値の連中だけかと 女の子は普通母親から、
スカートはいた時の立ち居振る舞いから
体の仕組み、場合によっては男の扱い方まで結構伝授されるもの
男も父親とそういう話すんのかは知らん >>225
子供向けモデルもクソもJKとかiPhone一択じゃね?
iOS組込みでないと何の意味も無い気がするけど、Appleが愛知県警と協業などする筈もなく。 児童にアワビとマツタケの写真を流行らせるだけでゴミ化するアプリ >>328
もうしばらく止まらんよ。
無期懲役にしたら誰もやらなくなるとか言い出すアホもいるし。 医科大の学生にやらせることじゃないな
案の定クソみたいなアイデアだし 年頃の自分の娘が、他の男にハメハメされてる写真を自動送信されて見せられた親はどんな気持ちだろうな
アプリが逆に脅迫に使われそうだが >>121
JAPのレベルの低さが露呈するニュースだね 動画撮ってたら自動的にワイセツ場面だけ保存してくれる便利なアプリに応用されて、盗撮で大活躍しそう 写真は親に自動的に全部サムネイル送信でいいだろ
いちいちできてもいないAIを持ってくる必要もない 息子が同級生とハメ撮り→親に児童ポルノ送られる→逮捕
誰が得すんだよこのアプリ 愛知県警はヤクザと友達なんで
良い子は距離を置いた方がいいよ >>293
中国はとっくにそうなってるし
欧米も含め個人の自由や権利よりも全体の秩序を重視するのが世界の潮流だな >>2
削除されたことも保護者に通知されるようにすればいいんじゃね? このアプリ作ったヤツは
アプリが正常に児ポ画像を検出するか検証しないといけない
つまりこのアプリ作ったヤツは
大量の児ポ画像もってるハズ 常にストレージ内をスキャンして全てのデータを外部のサーバに送信してんだろ
気持ち悪い 愛知県警ですがおたくの息子さんが盗撮したようです。こちらに証拠写真もあります。事件にせず消去したければ違約金と手数料としてこの口座に100万円を振り込んで下さい。さもないとおたくの息子さんの将来は暗いものになりますよ。振り込み期限は明日中です。期限を過ぎれば逮捕ということになります。 児童を卒業して学生になったらXビデオ見てオナニーしなさい 今!なぜかデジタルカメラが若者に売れてます!いったいなにが起こったのでしょうか!? つまり、検閲する所の椅子お願いしますっていう脅し。
めんどくせーから今のうちに逮捕しとけwwwww ■ このスレッドは過去ログ倉庫に格納されています