【性的素材】GoogleがAIを活用してネット上の「児童を搾取する違法なポルノコンテンツ」を自動で見つけ出すツールを開発
■ このスレッドは過去ログ倉庫に格納されています
インターネット上には児童ポルノなどの未成年者をターゲットにした性的素材(child sexual abuse material :CSAM)が多く存在しています。CSAMをネット上から排除する作業は人間の手で行われていますが、次々と登場するCSAMに対処できないのが現状です。そこで、GoogleはCSAMに向き合う人間を助けるべく、AIを活用したCSAMを判定するツール「Content Safety API」を開発しています。
Using AI to help organizations detect and report child sexual abuse material online
https://www.blog.google/around-the-globe/google-europe/using-ai-help-organizations-detect-and-report-child-sexual-abuse-material-online/
違法な児童ポルノがネット上で表示されるのを防ぐために、Googleなどのコンテンツプロバイダーは監視活動を行っています。しかし、特定のコンテンツをネット上から削除する行為は「表現の自由」の侵害にもなりかねないことから、コンテンツの違法性については人間による慎重な判断が避けられません。
また、従来のCSAMの監視活動で導入されていたツールは、すでに報告済みの違法なCSAMのハッシュ値とのマッチングに依存したもので、再アップロードを予防するためのもの。そのため、限られた人員の下では新たに登場するCSAMについての対処が追いつかないという状態にありました。
Googleはディープラーニングを用いた画像・映像認識技術によってコンテンツを自動判断し、CSAMをあぶりだす「Content Safety API」を開発しました。Content Safety APIは、無数にあるインターネットコンテンツをAIによって自動判別させ、CSAMの疑いがあり人間の目によるチェックが必要なものを検出することができ、検出したコンテンツを対処の必要性や緊急性に応じて並び替えられます。ネットを監視する人間はCSAMから出された重要度の高いコンテンツから順にCSAMとして削除するかどうかの判断を行うことができ、作業を効率化できるというわけです。
GoogleによるとContent Safety APIを導入することで、あるケースでは従来よりも8倍の数のCSAMを発見することに成功したとのことで、少ない人員でも作業を効率的かつスピーディーに行えるようになっています。
全文
https://gigazine.net/news/20180904-google-content-safety-api/
https://i.gzn.jp/img/2018/09/04/google-content-safety-api/00_m.jpg これを「バチカン」・・・・・「カトリック教会」が導入するべき。 この↓技術を児童ポルノ画像に応用したわけだな
______
■ネコを認識するAIが登場 ディープラーニングの衝撃
米グーグルは2012年、ネコを認識する人工知能(AI)を開発した、と発表した。
ネコとはどういうものか。1000万枚のネコの画像を見せられたコンピューターが、
人間に教えられなくても、ネコの特徴をつかむことに成功したというのだ。
https://www.sankei.com/column/news/160314/clm1603140003-n1.html 今の児ぽ大国は中国だよな
アグネスはいったい何やってんだよ
おまえの母国だろ 照会するための
児ポを
Googleが所有してますって
事だよね
じゃなきゃ開発出来ないよね? どうみても割れ目ないやらしい風景写真が駆逐されるんじゃねw 謝罪訂正の記事を見つけ出して、robots-noindexを回避するツールを開発してくれ はたして奴らに貧乳の擬似ロリをみわけられるのだろうか? >>10
ピンハネビジネスが出来ない事はチャンの誇りにかけてしないアル バチカン、カトリックと書こうとしたらすでに書かれていたわ(^o^) また今日も居場所を破壊された
ペドに居場所はないの? Googleは、ChromeにGoogleアカウントでログインして使用しているユーザーの性的嗜好を分析して、クレジットカード情報と共にデータベース化しているって、知ってた? 確かにnudismで画像検索しても、明らかにそれ系の画像が少なくなった。
以前は「おいおい、Googleさん、大丈夫かよww」と思うくらいだったのに。 いつから単なるプログラムをAIと呼ぶようになったの?
ワードの一括置換はAI?エクセルのマクロは? とりあえず10歳未満とかが判定できれば十分だわな。
17歳と18歳の区別なんてのが出来る必要は全く無い。 >>23
従来プログラムはいちいちどういう曲線がいやらしい
のか定義して教えてやらないといけないかったんじゃ
ね?AIはいやらしい画像を1万枚くらい与えてやれば
勝手に学習していやらしい画像を選ぶようになる。 >>27
何そのマホウの検索ワード
おらまじでびびったぞw 男児は尻よりオッパイのほうに興味あるからな
AIはよりターゲットをより絞りやすい これ以上居場所を無くて追い詰めるのやめて
ネットの中しか自由がないの 最強のロリコンAIが完成したか。
コイツにオカズ探させたら素晴らしい世界になりそうだなw >>27
それってお前が元々そういう画像をほしがってたから
かつてはたくさん載ってたんじゃなくて? >>48
二次元と三次元の区別は超簡単だろうけど…
白人の偽善者がわざわざ二次元を除外すると思うか? >>1
単なる性的嗜好を弾圧するとか…
後世で第二の魔女狩りと笑われるレベルの愚策だわ >>32
日本の女性はgoogleに優しいってことか
毛がありゃ一発判別 バチカンは神の名の元に納入見送りかな
だって納入したらバレるやん 規制する側が収集してたというオチで終わる可能性が割とある >>11
まあデータベースにな
本来は禁じ手なんだが ある時期を境にそういう物がいっさい表に出ない世界になるだろうな
でも裏では今も昔も行われているという
だから加害者と被害者の数は大して変わらない
オカズにしてた連中がリアルに性欲のはけ口を求めて
彼女作ろうと努力するかもしれないけど 幼いというだけで削除が始まり
子犬、子猫動画の削除始まる 児童虐待、ネトウヨ、トランプ賛美など全部自動的に削除すべき
ネット空間のゴミ掃除だ 17歳と18歳の間には実質的差異は全く無いのに
恣意的な線引きで17歳以下を児童ポルノとしているだけなんだから
見分けられる訳無い。 ロリコン逝ったwwwwwwwwwwwwwwww
ロリコン逝ったwwwwwwwwwwwwwwwwざまああああああああああああああwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww 👀
Rock54: Caution(BBR-MD5:1341adc37120578f18dba9451e6c8c3b) >>10
がめつい中国人は何故か儲かる児ポとかやらないんだよなw
不思議でたまらん 3次元ショタ空間では、カオス・フラクタル・ズボンのしわってのがあってだな
ショタ多様体をAIごときが解析することは不可能 googleのAIってあれだろ、黒人をゴリラにカテゴリーして大炎上した・・・
大丈夫か? >>29
エーアイと読むから違和感を感じるんだ。
日本人なら、アイと読め。
アイちゃんだ、分かるな? 麻生が日本の水道を外資に売ろうとしてるので日本の水の神様が怒っています.!.
みなさん水難に気を付けてください.!.
麻生はフランスロスチャイルド家と血縁関係になっていて、.
日本の水道をフランスロスチャイルド企業に売り渡し水道料金を5倍にして日本人から搾取させようとしてる極悪売国奴.!.
「ロスチャイルド家の猿」こと麻生を退治しないと日本人は水も飲めなくなる.!! ロリコンでもないのに胸糞児ポ画像を見て学習しなきゃいけないAI大変だな
初めてAIに同情したわ (将来の)児童を(股間から)搾取する違法なポルノコンテンツ これで集めた児童ポルノにgoogleの幹部が耽ってたらスキャンダルになりそうw そりゃ綺麗な社会が出来上がるだろうさ
綺麗だよ純粋な綺麗な環境になるだろう いいねいいね、どんどんネット上から児童ポルノを無くそう!児童ポルノの氾濫が未成年女子の自殺に繋がっているからね、重要な問題だよ ■ このスレッドは過去ログ倉庫に格納されています