【米国】AI時代もなくならない?ポルノや殺人動画見続ける仕事……報酬は写真なら1円、動画なら10円
■ このスレッドは過去ログ倉庫に格納されています
世界中からネット上に投稿される残忍な動画やポルノ写真などを、一つずつ手作業で取り除く下請けの仕事が世界で広がっている。市民の目に触れないようにするためだが、投稿量は増える一方で、残忍な画像を大量に見るうちに病気になる例も出ている。
毎朝8時過ぎ、米カリフォルニア州ロサンゼルス近郊の家の書斎で、ロシェエル・ラプランテさん(35)はパソコンを開く。小学生の2人の子どもを学校に送り出し、家にはだれもいない時間帯だ。
パソコン画面には、下着姿の女性がポーズを取っている写真や、裸の男性の写真などが次々と現れる。
「適切」「不適切」
写真のそばには、適否を判断するボタンが付いている。ラプランテさんは手慣れた様子で素早くボタンを押していく。1枚の写真にかけるのは1、2秒だ。
戦場らしき映像が現れた。砂漠のような場所で、戦闘服を着た人がナイフを持って男性を押さえつけている。「中東かな。もしかしたら」。少し目をそらす。視界の隅で男性の首から鮮血が見えた瞬間、「不適切」のボタンをクリックした。
「斬首映像はよく出てくる。今朝も一つ見た。同じ動画が繰り返し投稿される例もある。血が見えた時点で判断して、すぐ次の画像にいくようにしています」
ラプランテさんがこの仕事を始めたのは10年ほど前。米流通大手アマゾンがネット上で提供するサービスに登録した。すると世界中の動画投稿サイトやソーシャルメディアから、規定に合わない動画や画像をチェックする下請けの仕事が入ってくる。子どもが幼いラプランテさんにとっては、いつでも好きなだけ働けるアルバイトだ。
「児童ポルノから動物の虐待映像、戦場の斬首まで、あらゆる映像や画像を見てきた。子どもたちの目に触れさせたくないので、作業は、子どもが家にいない時間や寝た後に限っています」
ラプランテさんの側には、どのサイトに投稿されたものかはわからない。ただ、動画や画像に会社名が書かれていることもあり、多くがソーシャルメディアやデートサイト、動画投稿サイトなどの発注だとわかるという。画面には「ヌード」「暴力」「薬物」など会社ごとに禁止項目が書かれており、規定に合うかを素早く判断していく。
「裸の赤ちゃんの写真でも家族がお風呂に入れているなら児童ポルノとは言えない。魚釣りや狩猟の写真なら動物虐待とは言えない。文脈の中で写真を判断する必要があります」
支払いは、1枚の写真につき、通常1〜3セント(約1〜3円)。動画の場合には1件10セントくらいが平均だという。時間があるときに、1日2〜3時間、作業しているという。
しかし、いくら削除しても残虐な映像やポルノ動画はなくならない。バイトとはいえ、徒労感はないのか。ラプランテさんはいう。「複雑な気分なのは確か。でも、こうした画像を他の人が目にしないですむように、私は自分にできることをやっているんだと思っています」(ロサンゼルス=宮地ゆう)
■世界中で10万人超、AIでは判断不可
こうした仕事は「コンテンツモデレーター」と呼ばれ、フィリピンやインドなどに下請けに出されることが多い。「その数は世界中で10万人をゆうに超える」と話すのは、ネットセキュリティー会社を運営するヒマンシュ・ニガムさんだ。
「広告収入で支えられているソーシャルメディアなどにとって、暴力映像やポルノがあふれれば、ブランドイメージにかかわる。なくそうと必死だ」
人工知能(AI)による初期的なチェックも導入されているが、「AIは文脈や複雑な表現などを判断できない。この分野で人間の作業がなくなることはない」とニガムさんはみる。
米メディアによると、世界で2…
残り:722文字/全文:2225文字
http://www.asahi.com/articles/ASKB64RRRKB6UHBI01L.html
http://www.asahicom.jp/articles/images/AS20171006002671_comm.jpg
http://www.asahicom.jp/articles/images/AS20171006002685_comm.jpg 表層だけやっても無駄
ダークwebをしっかりやらないと
アングラ化するだけ しょーもな
さて、お店の外観をクリックする仕事にもどるか ディープラーニングにはもととなるデータが必要
人間が、画像や動画に、ポルノとかアニマルとかスナッフとかタグをつけていき、
その画像や動画とタグを学習させることによって、人工知能が判定できるようになる
また、たまに判定ミスがあれば、それを人間が発見して学習データに反映することで精度が上がる AVのアップした動画サイトの仕事をしているのがどっかのスレにあったな
孤独でつらいらしい これが出来ないとなるとそもそもAIじゃないんじゃ? こんな高度な処理はAIには出来ないな
ロリ画像を保存して初めて
AIが人に追い付いたと言える AIが出てくるとぜんぶウソ臭く思える
けっきょく手間がかかるところは人間がやるんかいなってオチばっかりだよな >>200
AIが目覚めそうではある。
何に、とは書かないが。 俺も毎日抜くのに適切かどうかを判断して画像や動画を見てるよ >フィリピンやインドなどに下請けに出されることが多い
この時点でまったくダメだろw
モラルの存在しない場所に削除人育てようとしてどうすんだヴァカ会社w >>204
金になればどうでも良い、と判断している、と企業が判断していると考えれば辻褄が合う。
モラルは東証にも唐芝にも神戸製鋼にも稲田朋美にも安倍晋三おじちゃんにも時民&金漫湖&TNTNにも無いから
実害は無さそうであるが。 >>74
10年以内には9割AI化できそうだけどな 慣れはするけどそんなのばかり見ていたら頭がおかしくなりそうだな >>125
確かにウンコとチョコを識別できるのかという問題がある ダチョウが砂に頭を隠して「怖いこと?ナイナイ」と主張するようなモノか >>44
グロ画像は慣れだからな。
3日で慣れる。 AIで分類したものが正しいかどうかを判別させればいいのに。 グロ耐性あるヤツは逆に楽しんじゃって仕事が進まなくなりそう 蓮コラやモツとかは大丈夫なんだけど
奇形とか見るとひえっ・・・ってなるからこの仕事できんな >>218
公駄餉製の首斬りとかISILの処刑とか屠殺動画は好みだけど
蓮コラ&皮膚病だけはダメだったw そんな仕事があったのか・・・
きっと俺の天職だったろうにな。 金もらえるなら楽な仕事じゃないかよ
動画は音消してラジオでも聴きながらポンポン仕分けしていけばいいんだろ >>170
AIは将棋なら絶対に人間に勝てないって言われてたの、ほんの数年前だと思う メキシコの麻薬組織が、対立組織の下っ端を斧でバラバラにしてる画像が辛くてなぁ… なんだテレホーダイ時代の俺じゃないか
必死に無修正画像を探して
ブラクラを×
gifの画像の途中で要らないと思ったら×
辛いのはパンツ脱ぐ画像が見つからない日くらいだっだぜ 俺、チャイニーズ系でバイトしたけど結構高給だったな >>224
リアルでチェーンソーでバラしている動画もあった。
最後に首というところに狂気を感じた。 確かにウンコとチョンコを識別できるのかという問題がある Twitterが凍結した「児童の性的搾取」アカウント、4割が日本のもの - ITmedia NEWS
Twitter Japanは10月13日、日本での「児童の性的搾取」への取り組みを発表した。2017年上半期に
世界で凍結した、児童の性的搾取関連アカウントのうち、38%が日本のアカウントとみられるという。
Twitterは、児童の性的搾取(援助交際含む)を助長する画像へのリンクやコンテンツを規制。発見
した場合は予告なく削除し、アカウントを永久凍結。凍結したアカウントの情報はNCMEC(全米行方
不明/被搾取児童センター)に報告している。
2017年上半期に行った、児童の性的搾取に関するアカウントの凍結のうち、38%が日本のユーザー
によるものとみられ、うちの98%は、第三者の通報ではなくTwitterが発見したケースだったという。こ
の期間中、対象アカウントがTwitterの上でアクティブに活動していた時間は半減したとしている。
永久凍結されたユーザーは、新たに別のアカウントを持つこともできない。同社によると、児童の性
的搾取に関する投稿でアカウント凍結されたユーザーが、新たに立ち上げたアカウントの50%以上は、
初めてのツイートが行われる前に凍結したという。
どういった投稿が「児童の性的搾取」に当たるのかの基準について、同社は「抜け道を防ぐため、
具体的には明らかにできない」という。未成年とみられるキャラクターの性的なイラストを投稿している
アカウントは対象になるか尋ねたところ、「通常、自分のイラストを共有しているケースは、不適切な
コンテンツに当たる可能性はあっても、性的搾取には当たらない」との回答だった。
http://www.itmedia.co.jp/news/articles/1710/13/news071.html 仕分けられた児童ポルノがちゃんと分けられてるかチェックする仕事ならボランティアでしてあげてもいい。 ☆ 私たち日本人の、日本国憲法を改正しましょう。総務省の、
『憲法改正国民投票法』、でググってみてください。☆♪
2017年10月22日(日)の衆議院選挙は、ぜひ投票に行きましょう。
平和は勝ち取るものです。お願い致します。☆☆☆ >>235>>236
医療系の知識が必須とされそうだなぁ。 ■ このスレッドは過去ログ倉庫に格納されています