【IT】わいせつ画像を撮影すると保護者に警告送信するアプリ 開発中の愛知県警へ学生がアイデア [凜★]
■ このスレッドは過去ログ倉庫に格納されています
■FNN/東海テレビ(2022年7月1日 金曜 午後10:42)
児童の性被害防止のため、愛知県警がスマートフォンアプリの開発を進めています。その普及に向け、藤田医科大学の学生らが若者視点のアイデアを発表しました。
愛知県警では、ベンチャー企業と協力し、スマートフォンでわいせつな画像を撮影するとAIが自動で削除したうえで保護者に警告するメッセージを送信するアプリの開発を進めています。
※全文は元記事でお願いします
https://www.fnn.jp/articles/-/383650 アプリじゃ意味ねーな
andoroidとiOSがAIで弾いてくれれば防げるけど >>1
僕のカメラアプリ、猫を認識してるから、楽勝で作れると思うよ。 問題は小学生にスマホ買い与える金持ちの性犯罪者がいる事だな 人間みたいな形の野菜とか、とろとろのオムレツを至近距離で撮ってみる学生をそっと応援したい >>1
発想が検閲で中国なんだよ
画像弾くのは受け取る側でいいだろ
全員強制の仕組みを作ろうと考えるな気持ち悪い ペアレンタルコントロール必須にさせろよ それがスタートだろ 余計なことすんなクソ野郎が
多くの人の楽しみを奪って何が嬉しいんだ
性格悪すぎだろ 子供傷つくだろこれ
スケベ行為なんて親に隠すもんだし わいせつ画像撮るような奴のスマホにこんなアプリ入ってるかよw
少しは考えろよ 学生「ベッドの下に隠してあったエロ本が机の上に並べて置いてあったんですよ・・」 ピロリロリン♪お子様のわいせつ画像が撮影されました! 消されたら誤爆されても証明できず、親にいやらしい子と思われる
ぐれるだろ 学生「ベッドの下に隠してあったエ○本が机の上に並べて置いてあったんですよ・・」
愛知県警「なるほど なるほど」 すげえ気もちわるい思考してんな
藤井医科大学の学生は
頭おかしいんじゃねえの どう考えても違法だよな、アプリの時点でやばいし、ほかに送信する機能とかやばいでしょ。 皮膚にできものできた
と接写すると肌色多めで通報されるのか 子供に持たせるスマホにインストールする前提とすれば、自撮り送らせる犯罪だけに有効ってことね まあ普通デジカメとかスマホ買ったらまずちんぽ撮るよな 判定のために自ポ画像サーバーに送った時点でサーバ側逮捕じゃね 筋トレ後にパンイチ写真よく撮るんだけどわいせつ認定されたらどうしよう >>33
スマホ持ってるか?
アプリなんて簡単にアンインストール出来るんだが
iPhoneだったらAppを削除で綺麗さっぱり消える >>36
もちろん愛知県民じゃない
そして藤田の書き間違えだ 隠れてやる隠れてやるってのが危ない道にいっちゃうんじゃない?
俺みたいな顔も名前も住所も分かるおじさんにならエッチな画像送っても大丈夫って教育した方が良いんじゃないかな? >>22
警察のサーバーに画像が貯まるようになっとんねん。 >>37
わいせつかどうか判断するからここに上げてみ 管理社会を望んでやがる
警察国家にでも移住してやれ
赤の遺伝子を持つ脳みそが なるほど、これ300円とかで売れれば相当儲かるな
これから書くわw AIってサーバー型?
それだといっかい裸がアップロードされる事になるけど 痔になったときケツアナ写真を撮って確認したけど親に連絡いってたら嫌だな AIが自動で削除したうえで保護者に警告?
警告だけ?
証拠を削除した上で?
犯罪者大喜びじゃんw そんなのより、性犯罪を犯したら即ミサイルが飛んでくるの開発しろ 猥褻の定義がどうなるか
いろんなフェチが議題にあがるか てかスタンドアローンでAIの機能を組み込むことは難しいだろうから、
撮影内容を自動的にネットで AI のサーバに送る、って仕組みになるぞ?
つまり別にわいせつ画の撮影だけじゃなく、すべての撮影行為が自動的に何処かに送られる仕組み、それをインストールしろ、って言ってる w >>39
児童用スマホに削除無効できないようプリインストールしとくってことじゃないの
慣れてりゃrootやPC使って無効化する子もいるだろうが一部だろうし >>42
警察じゃなくても、実は削除されていなくて後に大問題になる、に1000ペリカ >>1
アプリが完成したとして、誰がそんなアプリインストールするんだよ
OSに組み込まれてるとかじゃないわけだし そもそもの話、スマホにペアレンタルコントロールでカメラ使用不可にすればいい話 >>66
素直に愛知県警の言うことを信じる莫迦な親 w 学生が提案したと言えば反発少なくなるとでも思ったか おれがもし美少女女子高生なら、誰かに送るとかなしにぜったい自分の体撮りたくなると思うな >>59
撮影した画像全てが一旦サーバーに送られて、
AIによる検閲を受ける、ということか。
でも、iPhone だと写真はiCloudに自動保存だから、
検閲一本手前までは同じかもな。 自動削除には学習データが必要なので
皆さんの裸をとります いなり寿司の写真撮ったら、
「お稲荷さんは卑猥」って判断されるの? 自動削除した後に証拠写真は教師に転送しますね
先生<いやらしい動画は自動で消えるので仮に撮影されてもあまり気にしないように 撮影者を何歳で想定してるのか?親へ送信って小中学生がって事か? AI判定するためにまずサーバーにアップロードします ん、俺が彼女ハメ撮りしたら俺の親に警告がいくんか? 愛知県警とベンチャー企業に個人情報渡すのもきめえけど 単純に児童ポルノ厳罰化だけでいいよ
右往左往有れど
エロはパワーだし 撮影写真を外部に転送してチェックか
猥褻画像じゃなくても勝手に転送されるの嫌やろ
よー開発GOサインでたな
金になる気せえへんのやけど >>86
小学校低学年とかなら騙されてってのがあるからまあだけど高学年とか中学生ならその後の対応難しいよね >>77
実はエロい人が1枚1枚吟味して、ちょっとUSBにコピーしてから削除するかも。 ■ このスレッドは過去ログ倉庫に格納されています