【米国】AI時代もなくならない?ポルノや殺人動画見続ける仕事……報酬は写真なら1円、動画なら10円

■ このスレッドは過去ログ倉庫に格納されています
0001岩海苔ジョニー ★2017/10/10(火) 06:41:06.56ID:CAP_USER9
世界中からネット上に投稿される残忍な動画やポルノ写真などを、一つずつ手作業で取り除く下請けの仕事が世界で広がっている。市民の目に触れないようにするためだが、投稿量は増える一方で、残忍な画像を大量に見るうちに病気になる例も出ている。

 毎朝8時過ぎ、米カリフォルニア州ロサンゼルス近郊の家の書斎で、ロシェエル・ラプランテさん(35)はパソコンを開く。小学生の2人の子どもを学校に送り出し、家にはだれもいない時間帯だ。

 パソコン画面には、下着姿の女性がポーズを取っている写真や、裸の男性の写真などが次々と現れる。

 「適切」「不適切」

 写真のそばには、適否を判断するボタンが付いている。ラプランテさんは手慣れた様子で素早くボタンを押していく。1枚の写真にかけるのは1、2秒だ。

 戦場らしき映像が現れた。砂漠のような場所で、戦闘服を着た人がナイフを持って男性を押さえつけている。「中東かな。もしかしたら」。少し目をそらす。視界の隅で男性の首から鮮血が見えた瞬間、「不適切」のボタンをクリックした。

 「斬首映像はよく出てくる。今朝も一つ見た。同じ動画が繰り返し投稿される例もある。血が見えた時点で判断して、すぐ次の画像にいくようにしています」

ラプランテさんがこの仕事を始めたのは10年ほど前。米流通大手アマゾンがネット上で提供するサービスに登録した。すると世界中の動画投稿サイトやソーシャルメディアから、規定に合わない動画や画像をチェックする下請けの仕事が入ってくる。子どもが幼いラプランテさんにとっては、いつでも好きなだけ働けるアルバイトだ。

 「児童ポルノから動物の虐待映像、戦場の斬首まで、あらゆる映像や画像を見てきた。子どもたちの目に触れさせたくないので、作業は、子どもが家にいない時間や寝た後に限っています」

 ラプランテさんの側には、どのサイトに投稿されたものかはわからない。ただ、動画や画像に会社名が書かれていることもあり、多くがソーシャルメディアやデートサイト、動画投稿サイトなどの発注だとわかるという。画面には「ヌード」「暴力」「薬物」など会社ごとに禁止項目が書かれており、規定に合うかを素早く判断していく。

 「裸の赤ちゃんの写真でも家族がお風呂に入れているなら児童ポルノとは言えない。魚釣りや狩猟の写真なら動物虐待とは言えない。文脈の中で写真を判断する必要があります」

 支払いは、1枚の写真につき、通常1〜3セント(約1〜3円)。動画の場合には1件10セントくらいが平均だという。時間があるときに、1日2〜3時間、作業しているという。

 しかし、いくら削除しても残虐な映像やポルノ動画はなくならない。バイトとはいえ、徒労感はないのか。ラプランテさんはいう。「複雑な気分なのは確か。でも、こうした画像を他の人が目にしないですむように、私は自分にできることをやっているんだと思っています」(ロサンゼルス=宮地ゆう)

■世界中で10万人超、AIでは判断不可

 こうした仕事は「コンテンツモデレーター」と呼ばれ、フィリピンやインドなどに下請けに出されることが多い。「その数は世界中で10万人をゆうに超える」と話すのは、ネットセキュリティー会社を運営するヒマンシュ・ニガムさんだ。

 「広告収入で支えられているソーシャルメディアなどにとって、暴力映像やポルノがあふれれば、ブランドイメージにかかわる。なくそうと必死だ」

 人工知能(AI)による初期的なチェックも導入されているが、「AIは文脈や複雑な表現などを判断できない。この分野で人間の作業がなくなることはない」とニガムさんはみる。

 米メディアによると、世界で2…

残り:722文字/全文:2225文字
http://www.asahi.com/articles/ASKB64RRRKB6UHBI01L.html
http://www.asahicom.jp/articles/images/AS20171006002671_comm.jpg
http://www.asahicom.jp/articles/images/AS20171006002685_comm.jpg

0188名無しさん@1周年2017/10/12(木) 15:00:58.04ID:6xU28Dr80
感動ポルノも不適切に放り込んでくれませんかね

0189名無しさん@1周年2017/10/12(木) 15:32:26.87ID:uxNzd2cw0
クズばっかり

0190名無しさん@1周年2017/10/12(木) 15:36:36.03ID:mK9fSO+c0
表層だけやっても無駄
ダークwebをしっかりやらないと
アングラ化するだけ

0191名無しさん@1周年2017/10/12(木) 15:42:54.26ID:oheErbEw0
しょーもな

さて、お店の外観をクリックする仕事にもどるか

0192名無しさん@1周年2017/10/12(木) 15:47:03.36ID:/UI+MsWT0
ディープラーニングにはもととなるデータが必要

人間が、画像や動画に、ポルノとかアニマルとかスナッフとかタグをつけていき、
その画像や動画とタグを学習させることによって、人工知能が判定できるようになる

また、たまに判定ミスがあれば、それを人間が発見して学習データに反映することで精度が上がる

0193名無しさん@1周年2017/10/12(木) 15:48:02.92ID:9ZWKC4+60
本当は、そういうの好きなんだろう

0194名無しさん@1周年2017/10/12(木) 15:48:54.85ID:kHYLO2n+0
リアル黒のテープな

0195名無しさん@1周年2017/10/12(木) 15:49:26.60ID:ns6TjyOI0
AVのアップした動画サイトの仕事をしているのがどっかのスレにあったな
孤独でつらいらしい

0196名無しさん@1周年2017/10/12(木) 15:49:36.81ID:9AGkSTN/0
1コマだけ仕込んだら分からんのでは。

0197名無しさん@1周年2017/10/12(木) 16:16:33.23ID:k0YAxVU50
これが出来ないとなるとそもそもAIじゃないんじゃ?

0198名無しさん@1周年2017/10/12(木) 16:37:37.82ID:eRl59x8e0
こんな高度な処理はAIには出来ないな
ロリ画像を保存して初めて
AIが人に追い付いたと言える

0199名無しさん@1周年2017/10/12(木) 16:37:48.68ID:wEtfAwPE0
AIが出てくるとぜんぶウソ臭く思える
けっきょく手間がかかるところは人間がやるんかいなってオチばっかりだよな

0200名無しさん@1周年2017/10/12(木) 16:43:47.68ID:QwWvL8lV0
>>15
持ち帰りオッケーはだめでしょ

0201名無しさん@1周年2017/10/12(木) 17:25:44.47ID:Ei4AQJ8e0
>>200
AIが目覚めそうではある。
何に、とは書かないが。

0202名無しさん@1周年2017/10/12(木) 17:28:00.78ID:m+HD7/IS0
ポルノだったら12時間ぶっ続けでもいけるな

0203名無しさん@1周年2017/10/12(木) 17:38:49.67ID:fEh+yLRG0
俺も毎日抜くのに適切かどうかを判断して画像や動画を見てるよ

0204名無しさん@1周年2017/10/12(木) 17:54:20.66ID:fkjsBYl30
>フィリピンやインドなどに下請けに出されることが多い

この時点でまったくダメだろw
モラルの存在しない場所に削除人育てようとしてどうすんだヴァカ会社w

0205名無しさん@1周年2017/10/12(木) 18:02:44.95ID:Ei4AQJ8e0
>>204
金になればどうでも良い、と判断している、と企業が判断していると考えれば辻褄が合う。
モラルは東証にも唐芝にも神戸製鋼にも稲田朋美にも安倍晋三おじちゃんにも時民&金漫湖&TNTNにも無いから
実害は無さそうであるが。

0206名無しさん@1周年2017/10/12(木) 18:05:18.05ID:52akDWfE0
>>191
なにそれ

0207名無しさん@1周年2017/10/12(木) 18:08:41.54ID:qV91zSzd0
>>74
10年以内には9割AI化できそうだけどな

0208名無しさん@1周年2017/10/12(木) 18:08:48.64ID:bAMQFMjG0
慣れはするけどそんなのばかり見ていたら頭がおかしくなりそうだな

0209名無しさん@1周年2017/10/12(木) 18:09:28.42ID:qV91zSzd0
>>125
確かにウンコとチョコを識別できるのかという問題がある

0210名無しさん@1周年2017/10/12(木) 18:11:20.40ID:mitk5NlL0
それこそAIに頼みたい仕事だよな

0211名無しさん@1周年2017/10/12(木) 18:11:56.99ID:qV91zSzd0
>>148
urlくれWWWWWWWW

0212名無しさん@1周年2017/10/12(木) 18:12:06.04ID:DAQ7EPAd0
ダチョウが砂に頭を隠して「怖いこと?ナイナイ」と主張するようなモノか

0213名無しさん@1周年2017/10/12(木) 18:37:15.10ID:YtmBZ2aT0
>>44
グロ画像は慣れだからな。
3日で慣れる。

0214名無しさん@1周年2017/10/12(木) 18:38:16.07ID:YtmBZ2aT0
AIで分類したものが正しいかどうかを判別させればいいのに。

0215名無しさん@1周年2017/10/12(木) 18:40:14.58ID:oeaBUNNw0
毎日ネットパトロールしてるあのメガネ君の天職やん

0216名無しさん@1周年2017/10/12(木) 18:45:54.51ID:2AhdnJL70
グロ耐性あるヤツは逆に楽しんじゃって仕事が進まなくなりそう

0217名無しさん@1周年2017/10/12(木) 18:46:51.23ID:8rVgyul00
0が2個ほど足らないだろ

0218名無しさん@1周年2017/10/12(木) 18:58:08.78ID:ukzai+lJ0
蓮コラやモツとかは大丈夫なんだけど
奇形とか見るとひえっ・・・ってなるからこの仕事できんな

0219名無しさん@1周年2017/10/12(木) 19:01:10.52ID:Ei4AQJ8e0
>>218
公駄餉製の首斬りとかISILの処刑とか屠殺動画は好みだけど
蓮コラ&皮膚病だけはダメだったw

0220名無しさん@1周年2017/10/12(木) 19:02:46.28ID:4kvo6Gi80
そんな仕事があったのか・・・
きっと俺の天職だったろうにな。

0221名無しさん@1周年2017/10/12(木) 19:09:39.41ID:697jLlNb0
金もらえるなら楽な仕事じゃないかよ
動画は音消してラジオでも聴きながらポンポン仕分けしていけばいいんだろ

0222名無しさん@1周年2017/10/12(木) 19:28:57.86ID:e4fzxICy0
くだらん仕事いらね
知る権利の方がだいじだぞ

0223名無しさん@1周年2017/10/12(木) 19:46:21.56ID:mdssH//40
>>170
AIは将棋なら絶対に人間に勝てないって言われてたの、ほんの数年前だと思う

0224名無しさん@1周年2017/10/12(木) 19:54:51.79ID:tMm07iKF0
メキシコの麻薬組織が、対立組織の下っ端を斧でバラバラにしてる画像が辛くてなぁ…

0225名無しさん@1周年2017/10/12(木) 20:13:37.09ID:Px0iWYHk0
なんだテレホーダイ時代の俺じゃないか
必死に無修正画像を探して
ブラクラを×
gifの画像の途中で要らないと思ったら×

辛いのはパンツ脱ぐ画像が見つからない日くらいだっだぜ

0226名無しさん@1周年2017/10/12(木) 20:57:34.17ID:m3jH0yhZ0
俺、チャイニーズ系でバイトしたけど結構高給だったな

0227名無しさん@1周年2017/10/12(木) 23:53:50.06ID:Ei4AQJ8e0
>>224
リアルでチェーンソーでバラしている動画もあった。
最後に首というところに狂気を感じた。

0228名無しさん@1周年2017/10/13(金) 00:52:33.32ID:8C0ENvHi0
しんどそうな仕事としか思えんけど

0229名無しさん@1周年2017/10/13(金) 00:56:05.28ID:nWAKP3vd0
香田動画は本当に笑ったな
面白すぎ

0230名無しさん@1周年2017/10/13(金) 07:39:29.85ID:GGOPP3CQ0
おまいらの仕事はなくならないってさ

0231名無しさん@1周年2017/10/13(金) 07:41:03.39ID:GGOPP3CQ0
確かにウンコとチョンコを識別できるのかという問題がある

0232名無しさん@1周年2017/10/13(金) 13:15:17.84ID:NgM+kl1g0
Twitterが凍結した「児童の性的搾取」アカウント、4割が日本のもの - ITmedia NEWS

 Twitter Japanは10月13日、日本での「児童の性的搾取」への取り組みを発表した。2017年上半期に
世界で凍結した、児童の性的搾取関連アカウントのうち、38%が日本のアカウントとみられるという。

 Twitterは、児童の性的搾取(援助交際含む)を助長する画像へのリンクやコンテンツを規制。発見
した場合は予告なく削除し、アカウントを永久凍結。凍結したアカウントの情報はNCMEC(全米行方
不明/被搾取児童センター)に報告している。

 2017年上半期に行った、児童の性的搾取に関するアカウントの凍結のうち、38%が日本のユーザー
によるものとみられ、うちの98%は、第三者の通報ではなくTwitterが発見したケースだったという。こ
の期間中、対象アカウントがTwitterの上でアクティブに活動していた時間は半減したとしている。

 永久凍結されたユーザーは、新たに別のアカウントを持つこともできない。同社によると、児童の性
的搾取に関する投稿でアカウント凍結されたユーザーが、新たに立ち上げたアカウントの50%以上は、
初めてのツイートが行われる前に凍結したという。

 どういった投稿が「児童の性的搾取」に当たるのかの基準について、同社は「抜け道を防ぐため、
具体的には明らかにできない」という。未成年とみられるキャラクターの性的なイラストを投稿している
アカウントは対象になるか尋ねたところ、「通常、自分のイラストを共有しているケースは、不適切な
コンテンツに当たる可能性はあっても、性的搾取には当たらない」との回答だった。
http://www.itmedia.co.jp/news/articles/1710/13/news071.html

0233名無しさん@1周年2017/10/13(金) 16:21:10.50ID:5H7NR/Im0
>>231
安倍晋三おじちゃんも。

0234名無しさん@1周年2017/10/13(金) 16:55:43.97ID:a7iYBA+C0
なにこれ俺もやりたい

0235名無しさん@1周年2017/10/13(金) 18:46:01.27ID:jJffm3/g0
ジポ専門で雇ってくれ

0236名無しさん@1周年2017/10/14(土) 09:25:32.42ID:z6LNku3H0
仕分けられた児童ポルノがちゃんと分けられてるかチェックする仕事ならボランティアでしてあげてもいい。

0237名無しさん@1周年2017/10/14(土) 20:02:41.13ID:8in24EyG0
☆ 私たち日本人の、日本国憲法を改正しましょう。総務省の、
『憲法改正国民投票法』、でググってみてください。☆♪
2017年10月22日(日)の衆議院選挙は、ぜひ投票に行きましょう。
平和は勝ち取るものです。お願い致します。☆☆☆

0238名無しさん@1周年2017/10/14(土) 20:57:25.59ID:RMWzfmUa0
>>235>>236
医療系の知識が必須とされそうだなぁ。

■ このスレッドは過去ログ倉庫に格納されています