【性的素材】GoogleがAIを活用してネット上の「児童を搾取する違法なポルノコンテンツ」を自動で見つけ出すツールを開発
■ このスレッドは過去ログ倉庫に格納されています
インターネット上には児童ポルノなどの未成年者をターゲットにした性的素材(child sexual abuse material :CSAM)が多く存在しています。CSAMをネット上から排除する作業は人間の手で行われていますが、次々と登場するCSAMに対処できないのが現状です。そこで、GoogleはCSAMに向き合う人間を助けるべく、AIを活用したCSAMを判定するツール「Content Safety API」を開発しています。
Using AI to help organizations detect and report child sexual abuse material online
https://www.blog.google/around-the-globe/google-europe/using-ai-help-organizations-detect-and-report-child-sexual-abuse-material-online/
違法な児童ポルノがネット上で表示されるのを防ぐために、Googleなどのコンテンツプロバイダーは監視活動を行っています。しかし、特定のコンテンツをネット上から削除する行為は「表現の自由」の侵害にもなりかねないことから、コンテンツの違法性については人間による慎重な判断が避けられません。
また、従来のCSAMの監視活動で導入されていたツールは、すでに報告済みの違法なCSAMのハッシュ値とのマッチングに依存したもので、再アップロードを予防するためのもの。そのため、限られた人員の下では新たに登場するCSAMについての対処が追いつかないという状態にありました。
Googleはディープラーニングを用いた画像・映像認識技術によってコンテンツを自動判断し、CSAMをあぶりだす「Content Safety API」を開発しました。Content Safety APIは、無数にあるインターネットコンテンツをAIによって自動判別させ、CSAMの疑いがあり人間の目によるチェックが必要なものを検出することができ、検出したコンテンツを対処の必要性や緊急性に応じて並び替えられます。ネットを監視する人間はCSAMから出された重要度の高いコンテンツから順にCSAMとして削除するかどうかの判断を行うことができ、作業を効率化できるというわけです。
GoogleによるとContent Safety APIを導入することで、あるケースでは従来よりも8倍の数のCSAMを発見することに成功したとのことで、少ない人員でも作業を効率的かつスピーディーに行えるようになっています。
全文
https://gigazine.net/news/20180904-google-content-safety-api/
https://i.gzn.jp/img/2018/09/04/google-content-safety-api/00_m.jpg どうせ売女なんだから幼児だろうが大人だろうが同じだろ あいつの仕事なくなるやんけ
真っ先にAIに食われたか >1
そのAIちょっと貸してくれない?
大丈夫、ちゃんと機能するか試すだけだから! 2011年ころはグーグル画像検索の上位にウクライナ人の10歳くらいの全裸画像あった覚えがある
かなり長い期間表示されてた >>144
現実でレイプしてしまう可能性の方が高い >>148
中世の過ちを繰り返すとか人類ってほんとバカ 高校を卒業した学生の語学能力が、これほど貧弱で物の役に
立たないのは何故なのか。抜群の語学力を誇り、東大文学
部長までつとめた筆者が、外国にいる若者が外国語を習得する
困難さを正面から取り上げ、正則(期待されるような)
語学教育の重要性を指摘する、英語教育のための基本書。
原典データ配布しておりますので研究用にもご利用ください。
外山正一『英語教授法』 https://www.amazon.co.jp/dp/B07FB48MRF/
gqf 人生はリベンジマッチだと思う人は、聴くべきー
この歌のサビはイケる
ガッツだぜ、愛は勝つ、それが大事
そして2018年は
『人生はリベンジマッチ』
↑
名曲、ユーチューヴ検索
★カバー、コピー大歓迎。 女性が歌ってもイイネ
ヒップホップ、クラブ等で DJミックスもOK−
大受けすること、間違いナシ。 かなり昔のGoogleは検索結果が大量に出て来て色々な隠れたサイト見つけることが出来たけど今は異様に検索結果が少なくなった
色々手を加えすぎて限られた情報しか見れなくなってる感じがするわ これを使えば児童ポルノがいっぱい見れるな(*´д`*) Googleかいw
自分でばらまいて自分で見つけてそうだなw >>114
Gmailは昔検閲始めますってニュースになったろ
知らねーのかよ常識だろ
新参は勝手に捕まって死んでろ ニューラルネットワークを訓練するのに教師データとして画像データが大量に必要なはず。その所持や人手による手動のチェック、つまり閲覧は許されるもの? 日本の疑似ロリAVは優秀だからな
AIとて、あれを識別するのは厄介だぞ いつの間にか熟女の魅力を学習し
熟女画像を収集し続けるAIに成長 でも黒人少女の場合、ゴリラの子供と認識して
スルーするんだろ 搾取ってなんぞ?
本人が勝手に上げてる場合は誰が搾取していることになるんだ? エロに関して言えば中国とアメリカどっちが自由かって言ったら中国なんだよね。
検閲はするけどザルだからいくらでも再アップされる。 「完成だ。誰かテスト画像持ってないか?」
「私が持ってます。」
「タイホ」 >>113
それでも昔に比べると結構マシになった方。 いいぞ、もっとやれ
イギリスの幼児虐待を少しでも減らせ ひたすら児童ポルノを探し続けるAIは変質者だろうに 管理者がAIの集めた児ポを独占し欲の皮が突っ張りすぎて
一式をネット上で販売して逮捕になる展開か ロリコン日本人どもがGoogle卒業してバイドゥ使いだしたら笑う これを使えば幼女のムフフ画像が児童で収集できるなグフフ
(´・・ω` つロリ本 ) 国が金無いから、こういうの造って罰金で儲けたいからね
1KB/1000円でいいよ
お前らなら数TB分持ってそうだし、罰金破産も禁止すりゃ臓器移植も捗るだろうw >>25
どうりでgoogle アカウントを共有している家族共有PC に、最近エロ広告が増えてきたと思ったら、そういうことか。 >>177
中国語だと検索ワードわからないし無理でしょ 中国からの転載まとめサイトだけでも十分満足
10年前くらいの箪笥ちゃんみたいな自撮りならごろごろ転がってるな >>8
アダルト板で是非採用してもらいたいものだ。 よし!
日本のロリコンエースと対決させようぜwww
羽生さんが将棋AIとバトルするようにさ グーグルが決めた児童ポルノの定義に従え
というなら、傲慢だろうね。
宗教の有無、宗教の違い等の理由
で、境界線も違うはず。
身勝手極まりない児童ポルノルールを強要するなよ。 ■ このスレッドは過去ログ倉庫に格納されています