【性的素材】GoogleがAIを活用してネット上の「児童を搾取する違法なポルノコンテンツ」を自動で見つけ出すツールを開発

■ このスレッドは過去ログ倉庫に格納されています
0001ガーディス ★2018/09/04(火) 23:19:49.71ID:CAP_USER9
インターネット上には児童ポルノなどの未成年者をターゲットにした性的素材(child sexual abuse material :CSAM)が多く存在しています。CSAMをネット上から排除する作業は人間の手で行われていますが、次々と登場するCSAMに対処できないのが現状です。そこで、GoogleはCSAMに向き合う人間を助けるべく、AIを活用したCSAMを判定するツール「Content Safety API」を開発しています。

Using AI to help organizations detect and report child sexual abuse material online
https://www.blog.google/around-the-globe/google-europe/using-ai-help-organizations-detect-and-report-child-sexual-abuse-material-online/

違法な児童ポルノがネット上で表示されるのを防ぐために、Googleなどのコンテンツプロバイダーは監視活動を行っています。しかし、特定のコンテンツをネット上から削除する行為は「表現の自由」の侵害にもなりかねないことから、コンテンツの違法性については人間による慎重な判断が避けられません。

また、従来のCSAMの監視活動で導入されていたツールは、すでに報告済みの違法なCSAMのハッシュ値とのマッチングに依存したもので、再アップロードを予防するためのもの。そのため、限られた人員の下では新たに登場するCSAMについての対処が追いつかないという状態にありました。

Googleはディープラーニングを用いた画像・映像認識技術によってコンテンツを自動判断し、CSAMをあぶりだす「Content Safety API」を開発しました。Content Safety APIは、無数にあるインターネットコンテンツをAIによって自動判別させ、CSAMの疑いがあり人間の目によるチェックが必要なものを検出することができ、検出したコンテンツを対処の必要性や緊急性に応じて並び替えられます。ネットを監視する人間はCSAMから出された重要度の高いコンテンツから順にCSAMとして削除するかどうかの判断を行うことができ、作業を効率化できるというわけです。

GoogleによるとContent Safety APIを導入することで、あるケースでは従来よりも8倍の数のCSAMを発見することに成功したとのことで、少ない人員でも作業を効率的かつスピーディーに行えるようになっています。

全文
https://gigazine.net/news/20180904-google-content-safety-api/
https://i.gzn.jp/img/2018/09/04/google-content-safety-api/00_m.jpg

0138名無しさん@1周年2018/09/05(水) 00:33:11.47ID:aMLHTb630
>>136
グーグルに資料か上納金を提出

0139名無しさん@1周年2018/09/05(水) 00:37:30.45ID:JWS9EINt0
現代ならこれぐらいはやってくれなきゃな

0140名無しさん@1周年2018/09/05(水) 00:37:59.98ID:dwMYr/t+0
どうせ売女なんだから幼児だろうが大人だろうが同じだろ

0141名無しさん@1周年2018/09/05(水) 00:43:53.61ID:oRUDRf9s0
いくら?

0142名無しさん@1周年2018/09/05(水) 00:43:53.79ID:Ls5wbPl00
>>140
こういうのがいるから

0143名無しさん@1周年2018/09/05(水) 00:44:36.77ID:qePsmfVe0
こうしてロリに目覚めるAIが爆誕したのであった

0144名無しさん@1周年2018/09/05(水) 00:44:43.14ID:hddVGf/h0
もうロリコンは自殺するしかないな

0145名無しさん@1周年2018/09/05(水) 00:49:49.91ID:FMq1tYtp0
あいつの仕事なくなるやんけ
真っ先にAIに食われたか

0146名無しさん@1周年2018/09/05(水) 00:56:32.25ID:7DOpecwr0
>1
そのAIちょっと貸してくれない?
大丈夫、ちゃんと機能するか試すだけだから!

0147名無しさん@1周年2018/09/05(水) 01:02:17.64ID:EGsV3UbR0
2011年ころはグーグル画像検索の上位にウクライナ人の10歳くらいの全裸画像あった覚えがある
かなり長い期間表示されてた

0148名無しさん@1周年2018/09/05(水) 01:03:34.10ID:IQiOSZdL0
また冤罪符が必要な時代到来か胸熱

0149名無しさん@1周年2018/09/05(水) 01:12:15.91ID:REck8GD9O
>>144
現実でレイプしてしまう可能性の方が高い

0150名無しさん@1周年2018/09/05(水) 01:13:01.41ID:REck8GD9O
>>148
中世の過ちを繰り返すとか人類ってほんとバカ

0151名無しさん@1周年2018/09/05(水) 01:14:01.84ID:S2es0FeV0
ツイッターのjs裏赤とかも見つけるのかな?

0152名無しさん@1周年2018/09/05(水) 01:19:24.81ID:eUGhX99Z0
高校を卒業した学生の語学能力が、これほど貧弱で物の役に
立たないのは何故なのか。抜群の語学力を誇り、東大文学
部長までつとめた筆者が、外国にいる若者が外国語を習得する
困難さを正面から取り上げ、正則(期待されるような)
語学教育の重要性を指摘する、英語教育のための基本書。
原典データ配布しておりますので研究用にもご利用ください。

外山正一『英語教授法』 https://www.amazon.co.jp/dp/B07FB48MRF/
gqf

0153名無しさん@1周年2018/09/05(水) 02:04:11.49ID:eu3L+SKx0
人生はリベンジマッチだと思う人は、聴くべきー

この歌のサビはイケる

ガッツだぜ、愛は勝つ、それが大事
そして2018年は

『人生はリベンジマッチ』

名曲、ユーチューヴ検索

★カバー、コピー大歓迎。  女性が歌ってもイイネ
 
 ヒップホップ、クラブ等で DJミックスもOK−  
 
 大受けすること、間違いナシ。

0154名無しさん@1周年2018/09/05(水) 02:11:20.90ID:cYtXT3ND0
かなり昔のGoogleは検索結果が大量に出て来て色々な隠れたサイト見つけることが出来たけど今は異様に検索結果が少なくなった
色々手を加えすぎて限られた情報しか見れなくなってる感じがするわ

0155名無しさん@1周年2018/09/05(水) 02:13:01.48ID:WY1jdVvn0
これを使えば児童ポルノがいっぱい見れるな(*´д`*)

0156名無しさん@1周年2018/09/05(水) 02:16:59.99ID:5DZ7F0Ty0
Googleかいw
自分でばらまいて自分で見つけてそうだなw

0157名無しさん@1周年2018/09/05(水) 02:31:04.81ID:4X+dGlpn0
同人誌壊滅w

0158名無しさん@1周年2018/09/05(水) 02:45:06.56ID:FaKO/EZU0
わたしも協力したいのでツールください

0159名無しさん@1周年2018/09/05(水) 02:50:00.62ID:9XWq4p6Y0
>>114
Gmailは昔検閲始めますってニュースになったろ
知らねーのかよ常識だろ
新参は勝手に捕まって死んでろ

0160名無しさん@1周年2018/09/05(水) 03:19:44.77ID:+L7pPms60
ニューラルネットワークを訓練するのに教師データとして画像データが大量に必要なはず。その所持や人手による手動のチェック、つまり閲覧は許されるもの?

0161名無しさん@1周年2018/09/05(水) 03:45:27.74ID:JOSMyLkW0
ゴリラと黒人の区別がつかないAIで何するんだ?

0162名無しさん@1周年2018/09/05(水) 04:28:23.20ID:BZtz4r8v0
日本の疑似ロリAVは優秀だからな
AIとて、あれを識別するのは厄介だぞ

0163名無しさん@1周年2018/09/05(水) 04:33:43.48ID:hQ5r94Dm0
いつの間にか熟女の魅力を学習し
熟女画像を収集し続けるAIに成長

0164名無しさん@1周年2018/09/05(水) 04:40:28.20ID:kEU9GQzR0
でも黒人少女の場合、ゴリラの子供と認識して
スルーするんだろ

0165名無しさん@1周年2018/09/05(水) 04:49:25.75ID:zPk18ckS0
搾取ってなんぞ?

本人が勝手に上げてる場合は誰が搾取していることになるんだ?

0166名無しさん@1周年2018/09/05(水) 04:52:00.43ID:YtFBEJSS0
あんまりだ・・・

0167名無しさん@1周年2018/09/05(水) 04:52:26.45ID:bwSc37mY0
エロに関して言えば中国とアメリカどっちが自由かって言ったら中国なんだよね。
検閲はするけどザルだからいくらでも再アップされる。

0168名無しさん@1周年2018/09/05(水) 04:52:41.85ID:J6v6Gbuj0
プロジェクト河北

0169名無しさん@1周年2018/09/05(水) 04:56:01.29ID:Er7T6+qY0
これは検索エンジン対抗馬出現の可能性

0170名無しさん@1周年2018/09/05(水) 05:02:37.05ID:XKP1+b2j0
「完成だ。誰かテスト画像持ってないか?」
「私が持ってます。」
「タイホ」

0171名無しさん@1周年2018/09/05(水) 05:26:30.10ID:D+C/LjU30
>>105
こういう頭の良さが欲しい

0172名無しさん@1周年2018/09/05(水) 06:39:34.18ID:Lcbn6axc0
>>113
それでも昔に比べると結構マシになった方。

0173名無しさん@1周年2018/09/05(水) 07:00:17.88ID:yWtjSYIg0
いいぞ、もっとやれ
イギリスの幼児虐待を少しでも減らせ

0174名無しさん@1周年2018/09/05(水) 07:05:59.09ID:SOvdH3iz0
gj

0175名無しさん@1周年2018/09/05(水) 07:18:04.89ID:Tz5Zl7nA0
ひたすら児童ポルノを探し続けるAIは変質者だろうに

0176名無しさん@1周年2018/09/05(水) 07:32:30.17ID:xKOIM4Lw0
管理者がAIの集めた児ポを独占し欲の皮が突っ張りすぎて
一式をネット上で販売して逮捕になる展開か

0177名無しさん@1周年2018/09/05(水) 07:40:49.13ID:+ZhkN0Mj0
ロリコン日本人どもがGoogle卒業してバイドゥ使いだしたら笑う

0178名無しさん@1周年2018/09/05(水) 08:36:38.11ID:8NaHmYPz0
>>1
中の人は収集に勤しんだのかな?w

0179名無しさん@1周年2018/09/05(水) 08:37:28.87ID:d21mYEkO0
これを使えば幼女のムフフ画像が児童で収集できるなグフフ
(´・・ω` つロリ本 )

0180名無しさん@1周年2018/09/05(水) 08:57:35.96ID:xx3ACbI80
国が金無いから、こういうの造って罰金で儲けたいからね
1KB/1000円でいいよ
お前らなら数TB分持ってそうだし、罰金破産も禁止すりゃ臓器移植も捗るだろうw

0181名無しさん@1周年2018/09/05(水) 09:30:26.46ID:cG6kDSeL0
>>25
どうりでgoogle アカウントを共有している家族共有PC に、最近エロ広告が増えてきたと思ったら、そういうことか。

0182名無しさん@1周年2018/09/05(水) 09:50:33.54ID:G2EEqGfh0
自動で見つけ出すんじゃなくて
自動で削除すれば?

0183名無しさん@1周年2018/09/05(水) 09:51:51.33ID:q4yMVmn60
>>177
中国語だと検索ワードわからないし無理でしょ

0184名無しさん@1周年2018/09/05(水) 11:28:12.46ID:t1VDP0eS0
中国からの転載まとめサイトだけでも十分満足
10年前くらいの箪笥ちゃんみたいな自撮りならごろごろ転がってるな

0185名無しさん@1周年2018/09/05(水) 11:43:46.78ID:GtGZKE/90
高校野球終了

0186名無しさん@1周年2018/09/05(水) 11:49:22.90ID:0i50Rlou0
>>8
アダルト板で是非採用してもらいたいものだ。

0187名無しさん@1周年2018/09/05(水) 12:19:11.46ID:d21mYEkO0
よし!
日本のロリコンエースと対決させようぜwww
羽生さんが将棋AIとバトルするようにさ

0188名無しさん@1周年2018/09/05(水) 13:42:30.94ID:OtQCBOZa0
グーグルが決めた児童ポルノの定義に従え
というなら、傲慢だろうね。
宗教の有無、宗教の違い等の理由
で、境界線も違うはず。
身勝手極まりない児童ポルノルールを強要するなよ。

■ このスレッドは過去ログ倉庫に格納されています