【IT】わいせつ画像を撮影すると保護者に警告送信するアプリ 開発中の愛知県警へ学生がアイデア [凜★]
■ このスレッドは過去ログ倉庫に格納されています
■FNN/東海テレビ(2022年7月1日 金曜 午後10:42)
児童の性被害防止のため、愛知県警がスマートフォンアプリの開発を進めています。その普及に向け、藤田医科大学の学生らが若者視点のアイデアを発表しました。
愛知県警では、ベンチャー企業と協力し、スマートフォンでわいせつな画像を撮影するとAIが自動で削除したうえで保護者に警告するメッセージを送信するアプリの開発を進めています。
※全文は元記事でお願いします
https://www.fnn.jp/articles/-/383650 >>24
な〜に〜やっちまったな〜
男はだまって全裸待機
男はだまって全裸待機 こんなんに興味深々の医学部学生のアドバイスか、参加した奴リストアップされるな AIが自動で判断って言ってるけど、「自動判断」のさせ方って分かってるのかね?
AIに自撮りの猥褻画像だと判断させるためには、大量の教師データが必要になる。その教師データをディープラーニングに食わせ、かつその正解、つまりこれは自撮りの猥褻画像、これは違うという正答も食わせなきゃ、AIの自動判断なんてできない。
どーやって教師データを準備するの?エロサイトから収集した画像データだけを食わせても、全てを猥褻画像と判断するおバカなAIができるだけ。大量の非猥褻画像を食わせるのが大仕事。しかも学習したAIが使いものになるかの試験は、もっと大仕事。
学生の発想は悪くはないけど、AIなんて所詮赤ちゃんの脳と同じなので、親がどう教育するかが一番大事なこと。 >>179
しかし撮ったやつを証拠として親に送信するようにすると犯罪者側がターゲットにインストールさせてエロ自撮り自動収集てなことになりかねないよなあ 「開発にはわいせつ画像のデータが大量に必要です!」 おそらく教師あり学習だから
アプリを作るために大量の参考画像が必要になる こんなアプリどんな親がインストすんねん
撮った画像動画全部サーバーにアップして検閲されんだろ?
猥褻以前に気持ち悪すぎやし、万一親が入れててもそんなアプリすぐ削除するわ ゼロから製作するとなると、
AIが学習するための参考画像が大量に必要になるはずなんですが・・・。 警告送信とやらを受け取ったとして、そういう事態に対して適切な対応が出来る親がどれほど居るのだうか 本物のAIは我々が想像するようなサーバーでは動かないという。 送らなければいいだろうが
そんなことまで管理しないといけないのか?
今の若い奴は猿以下の知能しかねえのか? アプリが正常に動作するかどうか?何度も確認をしなければならないが… 娘のスマホを自動で俺に写真を送らせるように設定する。 これ不特定多数のガキに騙して入れさせるとポルノ収集装置になるな
ハメ撮り画像や自撮りヌードが集め放題になるw 外部記憶デバイスを買い与えるな
シンプルな電話を買い与えろや
成人してからなんぼでもすきな電話機こーたらええやろ ローカルにとった写真を検閲されるの
怖くね?
赤ちゃん産まれましたカシャ→ポルノ!
友達とプールに来ましたカシャ→ポルノ!
こんな風にしたいの? >>66
子供向けのモデルへのプレインストールや子どもにスマホを与える時とかだろうな
問題はそういった画像を取りかねないお子様はすぐに無効化する術を学ぶだろうってとこだ FacebookやTwitterだと桃や玉葱画像で警告くるんだけれど。
食器洗い用スポンジ画像載せただけで猥褻警告来たぞ。 うわーそんなもの送られてきたら親はどんな気持ちになるんやと思うけど現にやるやつおるから必要なんかもな 旭川の高校生以下の子どもがスマホを保つ場合はこれの導入を義務付けるべきだな 間違った判断をしたらどうするの?
モンペを怒らせるだけ YoutubeのAI判断なんかみても
誤判断したときどうするかが問題 >>234
対象画像が削除されて警告だけが飛ぶクソみたいな仕様だと疑心暗鬼から家庭崩壊まったなしだよね >>108>>115
人間並みの画像認識能力を獲得したAIは、
人間のような「目の錯覚」を起こしてしまうらしいぞ。 誤判定でわいせつ扱いされたりしそう
なんかいいかんじの鶏肉の写真とか 学生が作って親がインストールして子供を監視するんですね、わかります つうことは開発段階で実際にそのような画像を多々撮影して試すんですね 顔認識の技術を応用すればオマンコ認識機能も作れるだろう
あ、でも誰のオマンコか特定できちゃうかも カスはアプリいれないし、旭川見ればわかるように親がカスだから >>234
だね
マジで愚かだよね、人間って
結局昔のSF漫画なんかで出て来る
あり得ないパターンを追っかけてるわけだがw
なんでわざわざAIなんか持ち上げてるのかわけがわからん ゴーストワーカーのおっさんがチェックするから大丈夫 わいせつ画像を撮影するとAIが警告して削除するアプリを開発してるんだけど
AIを学習させるためわいせつな画像をいっぱい撮影して協力してくれませんか 鏡の前で全裸自撮りとか皆が通る道なのにその機会を奪うとか最低だな 疑似ロリは?人間の医者ですらタナー分類で鑑定失敗するのを法廷で証明したのに? 疑似ロリは?人間の医者ですらタナー分類で鑑定失敗するのを法廷で証明したのに? まさかAIで判定するために一度cloudに上げるとかはないよな? >>234
AIの判定を正とする よって誤判定はありえない 既に脱獄するガキも多いのに
あと保護者パスワードを子供に教える親もいる Jk同士で写メ撮ったら警告送信
景色を撮ったら禿げたオッサンが入り込んで警告送信
海やプールで撮ったらもれなく警告送信
家族の集合写真も勿論入浴中なども警告送信 毛沢東の画像をわいせつ画像と認識されるバグが発生しそうだな バナナはわいせつ画像に含まれますか?
ハゲはわいせつ画像に含まれますか? 保護者が自分の娘(息子)使ってやらせてんだから意味ないじゃん。
保護者が子供に万引きさせるやつとおんなじ。 マンコは肉便器になりたがっているのだから自然の摂理に刃向かうなよ!!
ドドーーーーーーーーン!! マ!ン!コ!
マ!ン!コ!
マ!ン!コ!
あそれ!マ!ン!コ!
ドドーーーーーーーーン!! ガキにスマホと持たせなければいいだけ
知恵と道具を与える親も悪い 大根とか人参の写真が削除された上に親に連絡いくという悲劇 わいせつ画像警告するアプリわざわざ入れる奴なんているのかよ まぁ娘がポピュラーだろうけど、意外と夫の不貞が妻に暴露されるケースも >>284
親に仕込まれたとしてもアンインストールするよねw 保護者のアカウントハックされて、
かつ画像がバックグラウンドで送信されるような仕組みにされたら収集ボットじゃないか 黒人の検知ができなくて訴訟されないように開発がんばれよ いやアプリって削除されてお終いじゃんw
キャリアアプリとして押し付けるの?
愛知県警お墨付きスマホを売り出すの?w
誰がどこの金を使って何万個オーダーするの?w 今後はAIで個人の行動を監査する時代になっていくのかもしれないな。
ただ、Youtubeの誤BANの多さを見るに、写ってるものがわいせつかどうかを判断するのはまだ難しいのかもしれんが。 ・そのアプリを使わなければ回避される
・そのアプリ以外がカメラを使えないようにする仕組みはどうするのか
・Googleさんでも わいせつ の誤認識が多いのにまともに認識出来るものが作れるのか疑問 >>1
これ実際次から次へと娘のハメ撮り写真が仕事中に転送されて来たらどうなるんだろうな 削除されたら終わりやん
どうやってプリインスコさせんの? >>11
水泳部「うちもだ」
レスリング部「なぜ?」
学生プロレス「どういうことだ?」
ボクシング部「肌色具合か?」 >>298
子供の携帯にインスコするんだろ
チャイルドロックみたいなものだ
まあ、色で判断するから肌の写ってるものは撮影できなくなるかもな ■ このスレッドは過去ログ倉庫に格納されています