X



【米国】AI時代もなくならない?ポルノや殺人動画見続ける仕事……報酬は写真なら1円、動画なら10円
■ このスレッドは過去ログ倉庫に格納されています
0001岩海苔ジョニー ★
垢版 |
2017/10/10(火) 06:41:06.56ID:CAP_USER9
世界中からネット上に投稿される残忍な動画やポルノ写真などを、一つずつ手作業で取り除く下請けの仕事が世界で広がっている。市民の目に触れないようにするためだが、投稿量は増える一方で、残忍な画像を大量に見るうちに病気になる例も出ている。

 毎朝8時過ぎ、米カリフォルニア州ロサンゼルス近郊の家の書斎で、ロシェエル・ラプランテさん(35)はパソコンを開く。小学生の2人の子どもを学校に送り出し、家にはだれもいない時間帯だ。

 パソコン画面には、下着姿の女性がポーズを取っている写真や、裸の男性の写真などが次々と現れる。

 「適切」「不適切」

 写真のそばには、適否を判断するボタンが付いている。ラプランテさんは手慣れた様子で素早くボタンを押していく。1枚の写真にかけるのは1、2秒だ。

 戦場らしき映像が現れた。砂漠のような場所で、戦闘服を着た人がナイフを持って男性を押さえつけている。「中東かな。もしかしたら」。少し目をそらす。視界の隅で男性の首から鮮血が見えた瞬間、「不適切」のボタンをクリックした。

 「斬首映像はよく出てくる。今朝も一つ見た。同じ動画が繰り返し投稿される例もある。血が見えた時点で判断して、すぐ次の画像にいくようにしています」

ラプランテさんがこの仕事を始めたのは10年ほど前。米流通大手アマゾンがネット上で提供するサービスに登録した。すると世界中の動画投稿サイトやソーシャルメディアから、規定に合わない動画や画像をチェックする下請けの仕事が入ってくる。子どもが幼いラプランテさんにとっては、いつでも好きなだけ働けるアルバイトだ。

 「児童ポルノから動物の虐待映像、戦場の斬首まで、あらゆる映像や画像を見てきた。子どもたちの目に触れさせたくないので、作業は、子どもが家にいない時間や寝た後に限っています」

 ラプランテさんの側には、どのサイトに投稿されたものかはわからない。ただ、動画や画像に会社名が書かれていることもあり、多くがソーシャルメディアやデートサイト、動画投稿サイトなどの発注だとわかるという。画面には「ヌード」「暴力」「薬物」など会社ごとに禁止項目が書かれており、規定に合うかを素早く判断していく。

 「裸の赤ちゃんの写真でも家族がお風呂に入れているなら児童ポルノとは言えない。魚釣りや狩猟の写真なら動物虐待とは言えない。文脈の中で写真を判断する必要があります」

 支払いは、1枚の写真につき、通常1〜3セント(約1〜3円)。動画の場合には1件10セントくらいが平均だという。時間があるときに、1日2〜3時間、作業しているという。

 しかし、いくら削除しても残虐な映像やポルノ動画はなくならない。バイトとはいえ、徒労感はないのか。ラプランテさんはいう。「複雑な気分なのは確か。でも、こうした画像を他の人が目にしないですむように、私は自分にできることをやっているんだと思っています」(ロサンゼルス=宮地ゆう)

■世界中で10万人超、AIでは判断不可

 こうした仕事は「コンテンツモデレーター」と呼ばれ、フィリピンやインドなどに下請けに出されることが多い。「その数は世界中で10万人をゆうに超える」と話すのは、ネットセキュリティー会社を運営するヒマンシュ・ニガムさんだ。

 「広告収入で支えられているソーシャルメディアなどにとって、暴力映像やポルノがあふれれば、ブランドイメージにかかわる。なくそうと必死だ」

 人工知能(AI)による初期的なチェックも導入されているが、「AIは文脈や複雑な表現などを判断できない。この分野で人間の作業がなくなることはない」とニガムさんはみる。

 米メディアによると、世界で2…

残り:722文字/全文:2225文字
http://www.asahi.com/articles/ASKB64RRRKB6UHBI01L.html
http://www.asahicom.jp/articles/images/AS20171006002671_comm.jpg
http://www.asahicom.jp/articles/images/AS20171006002685_comm.jpg
0225名無しさん@1周年
垢版 |
2017/10/12(木) 20:13:37.09ID:Px0iWYHk0
なんだテレホーダイ時代の俺じゃないか
必死に無修正画像を探して
ブラクラを×
gifの画像の途中で要らないと思ったら×

辛いのはパンツ脱ぐ画像が見つからない日くらいだっだぜ
0226名無しさん@1周年
垢版 |
2017/10/12(木) 20:57:34.17ID:m3jH0yhZ0
俺、チャイニーズ系でバイトしたけど結構高給だったな
0227名無しさん@1周年
垢版 |
2017/10/12(木) 23:53:50.06ID:Ei4AQJ8e0
>>224
リアルでチェーンソーでバラしている動画もあった。
最後に首というところに狂気を感じた。
0230名無しさん@1周年
垢版 |
2017/10/13(金) 07:39:29.85ID:GGOPP3CQ0
おまいらの仕事はなくならないってさ
0231名無しさん@1周年
垢版 |
2017/10/13(金) 07:41:03.39ID:GGOPP3CQ0
確かにウンコとチョンコを識別できるのかという問題がある
0232名無しさん@1周年
垢版 |
2017/10/13(金) 13:15:17.84ID:NgM+kl1g0
Twitterが凍結した「児童の性的搾取」アカウント、4割が日本のもの - ITmedia NEWS

 Twitter Japanは10月13日、日本での「児童の性的搾取」への取り組みを発表した。2017年上半期に
世界で凍結した、児童の性的搾取関連アカウントのうち、38%が日本のアカウントとみられるという。

 Twitterは、児童の性的搾取(援助交際含む)を助長する画像へのリンクやコンテンツを規制。発見
した場合は予告なく削除し、アカウントを永久凍結。凍結したアカウントの情報はNCMEC(全米行方
不明/被搾取児童センター)に報告している。

 2017年上半期に行った、児童の性的搾取に関するアカウントの凍結のうち、38%が日本のユーザー
によるものとみられ、うちの98%は、第三者の通報ではなくTwitterが発見したケースだったという。こ
の期間中、対象アカウントがTwitterの上でアクティブに活動していた時間は半減したとしている。

 永久凍結されたユーザーは、新たに別のアカウントを持つこともできない。同社によると、児童の性
的搾取に関する投稿でアカウント凍結されたユーザーが、新たに立ち上げたアカウントの50%以上は、
初めてのツイートが行われる前に凍結したという。

 どういった投稿が「児童の性的搾取」に当たるのかの基準について、同社は「抜け道を防ぐため、
具体的には明らかにできない」という。未成年とみられるキャラクターの性的なイラストを投稿している
アカウントは対象になるか尋ねたところ、「通常、自分のイラストを共有しているケースは、不適切な
コンテンツに当たる可能性はあっても、性的搾取には当たらない」との回答だった。
http://www.itmedia.co.jp/news/articles/1710/13/news071.html
0233名無しさん@1周年
垢版 |
2017/10/13(金) 16:21:10.50ID:5H7NR/Im0
>>231
安倍晋三おじちゃんも。
0236名無しさん@1周年
垢版 |
2017/10/14(土) 09:25:32.42ID:z6LNku3H0
仕分けられた児童ポルノがちゃんと分けられてるかチェックする仕事ならボランティアでしてあげてもいい。
0237名無しさん@1周年
垢版 |
2017/10/14(土) 20:02:41.13ID:8in24EyG0
☆ 私たち日本人の、日本国憲法を改正しましょう。総務省の、
『憲法改正国民投票法』、でググってみてください。☆♪
2017年10月22日(日)の衆議院選挙は、ぜひ投票に行きましょう。
平和は勝ち取るものです。お願い致します。☆☆☆
0238名無しさん@1周年
垢版 |
2017/10/14(土) 20:57:25.59ID:RMWzfmUa0
>>235>>236
医療系の知識が必須とされそうだなぁ。
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況