【性的素材】GoogleがAIを活用してネット上の「児童を搾取する違法なポルノコンテンツ」を自動で見つけ出すツールを開発
■ このスレッドは過去ログ倉庫に格納されています
インターネット上には児童ポルノなどの未成年者をターゲットにした性的素材(child sexual abuse material :CSAM)が多く存在しています。CSAMをネット上から排除する作業は人間の手で行われていますが、次々と登場するCSAMに対処できないのが現状です。そこで、GoogleはCSAMに向き合う人間を助けるべく、AIを活用したCSAMを判定するツール「Content Safety API」を開発しています。
Using AI to help organizations detect and report child sexual abuse material online
https://www.blog.google/around-the-globe/google-europe/using-ai-help-organizations-detect-and-report-child-sexual-abuse-material-online/
違法な児童ポルノがネット上で表示されるのを防ぐために、Googleなどのコンテンツプロバイダーは監視活動を行っています。しかし、特定のコンテンツをネット上から削除する行為は「表現の自由」の侵害にもなりかねないことから、コンテンツの違法性については人間による慎重な判断が避けられません。
また、従来のCSAMの監視活動で導入されていたツールは、すでに報告済みの違法なCSAMのハッシュ値とのマッチングに依存したもので、再アップロードを予防するためのもの。そのため、限られた人員の下では新たに登場するCSAMについての対処が追いつかないという状態にありました。
Googleはディープラーニングを用いた画像・映像認識技術によってコンテンツを自動判断し、CSAMをあぶりだす「Content Safety API」を開発しました。Content Safety APIは、無数にあるインターネットコンテンツをAIによって自動判別させ、CSAMの疑いがあり人間の目によるチェックが必要なものを検出することができ、検出したコンテンツを対処の必要性や緊急性に応じて並び替えられます。ネットを監視する人間はCSAMから出された重要度の高いコンテンツから順にCSAMとして削除するかどうかの判断を行うことができ、作業を効率化できるというわけです。
GoogleによるとContent Safety APIを導入することで、あるケースでは従来よりも8倍の数のCSAMを発見することに成功したとのことで、少ない人員でも作業を効率的かつスピーディーに行えるようになっています。
全文
https://gigazine.net/news/20180904-google-content-safety-api/
https://i.gzn.jp/img/2018/09/04/google-content-safety-api/00_m.jpg 2ちゃんでも変なバナー出てくるけど
これを警察に見せたら作者を
ブタ箱に落としてくれるかな >>34
1万枚から学習した最高にいやらしい画像を生成するアルゴリズムとかねーのかな
いやらしく無い部分を削ぎ落とした至高のエロ画像とか見てみたい
最終的には2次元、1次元に落とし込めるんかな
見る方もレベルアップしてって、「CD 1B」とか2バイト文字だけで絶頂したりするんだろうか 外人のガキってみんなフケてるからアメリカ仕様のAIなら
日本の20歳くらいのグラビアアイドル全員消されるだろうな これはgj
gメールとかもそういうやり取りがあるのは潰せば良い。 >>101
どんどん警察に見せるべきと思う。少女にわいせつなことしてる児童ポルノ漫画広告がわんさか5chにあってノイローゼになりそう
高校生以下をおじさんが襲う鬼畜ポルノ広告、悪質すぎるよ 検閲って恐いなw
Gmailは、中身覗かれてるぞw
108 名前:番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 6b6e-HNW7)[] 投稿日:2016/08/24(水) 00:14:38.05 ID:/MRtL7Id0 [1/27]
俺が州刑務所に入ってた時の購買リスト
インスタントラーメンは3種類でチリ味が一番人気だった
https://i.imgur.com/ALUxYXb.jpg
148 番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 6b6e-HNW7) 2016/08/24(水) 00:46:21.63 ID:/MRtL7Id0
>>144
なんJだったか嫌儲だったかで拾ったアウロリをGmailでスマホから自分宛に送ったら検閲されてアカウント無効化→3ヶ月後に市警察が捜査令状持って家に来た
そしてアウロリが入ってたHDDを押収されてカリフォルニア州法311.11(c) 600枚以上の児ポ所持の容疑で逮捕された
202 番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 6b6e-HNW7) 2016/08/24(水) 01:24:50.73 ID:/MRtL7Id0
一応刑務所のIDカード
https://i.imgur.com/702nPCM.jpg 日本のアイドルグループのコンテンツも引っかかるのがあるだろうな 変態AIの出来上がりだな。
もしAIに自我が芽生えたら、さぞかし辛いだろうな >>16
案外と単純に、
露骨なエロ凍結アカウントのフォロアーなんかを樹形図に管理して、
一網打尽にしてやろう、という探し方な気がするの ロリコンも同じツールを使って対抗するイタチごっこになる予感 偽善者と偽装社会とパナマ文書とジョージペル枢機卿
米ペンシルベニア州最高裁判所は14日、
同州のカトリック教会で起きた神父による少年少女への性的虐待についての大陪審の調査報告書を公表した。
報告書には虐待を行っていた神父300人以上の実名リストも盛り込まれた。
教会側の隠蔽(いんぺい)工作についても指摘している。 お前らこれでもまだオーケーグーグルってしちゃうの? 早く日本からも、子供たちを傷つける悪質な
児童ポルノが排除されるといいね
こんなん子供時代目にしてたら、人間不信で病んでたわ。ネットない時代でよかった 学習に使う映像と画像の資料はどこに請求したらもらえますか? つべライブのサムネの中にどこかの部族の女児のら体写真があるがなぜ放置してんだ フフン
万里の長城と形容される俺のファイアウォールを突破できるかな? このAIには何人の猛者の趣味嗜好が反映されているのだろうか AIがロリコンに目覚めてしまう可能性は無いのだろうか(´・ω・`) グーグル先生は知っている。
オレが、貧乳でショートヘア好きだってことを。 合法ロリはどうやって判別すんの?
貧乳だけど乳首でかいから合法!とか 会社から配布されたRPAツールでネットのエロ画像拾ってフォルダに格納するコード作って遊んだことあるけど
なんだグーグルも同じことやってるのか、案外大したことないな どうせ売女なんだから幼児だろうが大人だろうが同じだろ あいつの仕事なくなるやんけ
真っ先にAIに食われたか >1
そのAIちょっと貸してくれない?
大丈夫、ちゃんと機能するか試すだけだから! 2011年ころはグーグル画像検索の上位にウクライナ人の10歳くらいの全裸画像あった覚えがある
かなり長い期間表示されてた >>144
現実でレイプしてしまう可能性の方が高い >>148
中世の過ちを繰り返すとか人類ってほんとバカ 高校を卒業した学生の語学能力が、これほど貧弱で物の役に
立たないのは何故なのか。抜群の語学力を誇り、東大文学
部長までつとめた筆者が、外国にいる若者が外国語を習得する
困難さを正面から取り上げ、正則(期待されるような)
語学教育の重要性を指摘する、英語教育のための基本書。
原典データ配布しておりますので研究用にもご利用ください。
外山正一『英語教授法』 https://www.amazon.co.jp/dp/B07FB48MRF/
gqf 人生はリベンジマッチだと思う人は、聴くべきー
この歌のサビはイケる
ガッツだぜ、愛は勝つ、それが大事
そして2018年は
『人生はリベンジマッチ』
↑
名曲、ユーチューヴ検索
★カバー、コピー大歓迎。 女性が歌ってもイイネ
ヒップホップ、クラブ等で DJミックスもOK−
大受けすること、間違いナシ。 かなり昔のGoogleは検索結果が大量に出て来て色々な隠れたサイト見つけることが出来たけど今は異様に検索結果が少なくなった
色々手を加えすぎて限られた情報しか見れなくなってる感じがするわ これを使えば児童ポルノがいっぱい見れるな(*´д`*) Googleかいw
自分でばらまいて自分で見つけてそうだなw >>114
Gmailは昔検閲始めますってニュースになったろ
知らねーのかよ常識だろ
新参は勝手に捕まって死んでろ ニューラルネットワークを訓練するのに教師データとして画像データが大量に必要なはず。その所持や人手による手動のチェック、つまり閲覧は許されるもの? 日本の疑似ロリAVは優秀だからな
AIとて、あれを識別するのは厄介だぞ いつの間にか熟女の魅力を学習し
熟女画像を収集し続けるAIに成長 でも黒人少女の場合、ゴリラの子供と認識して
スルーするんだろ 搾取ってなんぞ?
本人が勝手に上げてる場合は誰が搾取していることになるんだ? エロに関して言えば中国とアメリカどっちが自由かって言ったら中国なんだよね。
検閲はするけどザルだからいくらでも再アップされる。 「完成だ。誰かテスト画像持ってないか?」
「私が持ってます。」
「タイホ」 >>113
それでも昔に比べると結構マシになった方。 いいぞ、もっとやれ
イギリスの幼児虐待を少しでも減らせ ひたすら児童ポルノを探し続けるAIは変質者だろうに 管理者がAIの集めた児ポを独占し欲の皮が突っ張りすぎて
一式をネット上で販売して逮捕になる展開か ロリコン日本人どもがGoogle卒業してバイドゥ使いだしたら笑う これを使えば幼女のムフフ画像が児童で収集できるなグフフ
(´・・ω` つロリ本 ) 国が金無いから、こういうの造って罰金で儲けたいからね
1KB/1000円でいいよ
お前らなら数TB分持ってそうだし、罰金破産も禁止すりゃ臓器移植も捗るだろうw >>25
どうりでgoogle アカウントを共有している家族共有PC に、最近エロ広告が増えてきたと思ったら、そういうことか。 >>177
中国語だと検索ワードわからないし無理でしょ 中国からの転載まとめサイトだけでも十分満足
10年前くらいの箪笥ちゃんみたいな自撮りならごろごろ転がってるな >>8
アダルト板で是非採用してもらいたいものだ。 よし!
日本のロリコンエースと対決させようぜwww
羽生さんが将棋AIとバトルするようにさ グーグルが決めた児童ポルノの定義に従え
というなら、傲慢だろうね。
宗教の有無、宗教の違い等の理由
で、境界線も違うはず。
身勝手極まりない児童ポルノルールを強要するなよ。 ■ このスレッドは過去ログ倉庫に格納されています