【女性差別】「女子大卒は減点」アマゾンのAI採用、男性優遇判明で廃止に★2
■ このスレッドは過去ログ倉庫に格納されています
人工知能(AI)アルゴリズムの訓練に使われたデータが、男性の就職希望者を優遇する傾向を生んだ。
https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2018/10/10234907/25388747874b5c0b42ad7k-550x309.jpg
ロイター通信の報道によると、2014年、アマゾンは就職希望者に対して1つ星から5つ星でランク付けをする自動システムの開発に着手した。しかし、このシステムが技術職において男性志願者を優遇していることが分かり、2017年に廃止した。
このAIツールは、アマゾンがそれまで10年間に渡って受け取ってきた履歴書のデータを元に訓練された。テクノロジー産業は男性優位分野であるため、履歴書の大部分は男性から送られてきたものだった。
システムは意図せずして、男性志願者を女性志願者よりも優先して選ぶように訓練されていた。報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。アマゾンは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信を持てなくなったという。
私たちはAIを本質的にバイアスがないものとして扱うことはできない。バイアスのあるデータでシステムを訓練すれば、アルゴリズムもまたバイアスを含むことになる。もし、今回のような公平性を欠いたAI人材採用プログラムが導入前に明るみにならなければ、ビジネスに長年根付いている多様性の問題の数々は解決されず、むしろ固定化されてしまうだろう。
2018年10月11日 10時24分
アスキー
http://ascii.jp/elem/000/001/755/1755527/
他ソース
アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN
★1が立った時間 2018/10/11(木) 20:09:52.79
前スレ
https://asahi.5ch.net/test/read.cgi/newsplus/1539256192/ >>259
俺が言った良いの意味は
AIを使った結果としては妥当だという意味だよ >>346
差別ってなあにって話だな。
機械には感情なんてないぞいw 過去データから算出した結果でしょ
男の方が仕事効率が良いデータを無視して
女を無理矢理採用する方が差別だと思うけどな ステレオタイプな価値観を持つAIって、より人間らしくなってきてるような気はする >>341
うん、そこを加味してAI至上主義者は万能論者の発言がどう変化するかだね。 AIに学習させたのは「公平性」ではなく「本音と建前」だろw だってアマゾンも業務考えたらシフト勤務やろ?
ホルモンバランス崩れたら一気にダメになったり基礎体力のない、しかも夜勤や深夜退勤後はリスクでかい女性はそりゃ敬遠されるんじゃね?
女性だから日勤優遇でとかなったら男性差別になるし >>281
ある程度ナイーブに適用できるのが機械学習のいいところだろ
それが嫌なら面倒くらい工夫をする必要があるが、それをするぐらいなら機械学習を使わなくてもという話になる >>341 じゃなくて >>335 だった(´・ω・`) >>355
そもそも性差によるスペック考えたら、どんだけ優秀な女史が世の中に存在しようとも「現在の労働環境では男性のほうが要求される」ってのは客観的に妥当だしな ていうかさ、技術職の応募なのに女子大卒が応募って時点でなにコレって感じなんですけど 過去に始まり現在も続く「差別」「環境」などの問題が現状維持される責任をAIに押し付けるのは人間の無責任
人間が作り出した問題は人間が解決する必要があるのであって
統計や数学を無邪気に使うこと自体が直接解決になるものではないというだけのこと >>329
入社後の成績まで学習させてたかは分からないけど、少なくともその人物を採用したかどうかというデータは間違いないわけで、
そこで少なからず性別という余計な要素が加味されていると考えられる。その時点でアウトなんだわ。 >>362
大卒に女子大を加えるんなら、まず女子大の存在ってのが性差で不公平よね いくらでも雑にこき使って平気な人間と、大事に大事に扱わないといけない人間
両方いてどっち取るかってなったらそりゃね >>346
つまりこれって確かに男性のほうが優秀だとする合理的根拠があって
AIは判断しているが、それは差別だとする社会は
非合理な女性優遇社会ということになるんじゃないかなw >>363
責任っつーか、性差による体力等の理由で妥当だと思うけどなあ・・・ 先入観を持たない事が不可能である以上、イデオロギーから完全に自由な人間はいない
AIもまたしかりということか AIが自我持ったら女全員駆逐されそうだな
男は一生奴隷のように扱われそう >>370
イデオロギーとか関係なくてAIのやってる事は最適化なので、これまでの採用方針を最適化したら怒られましたって話。 >>356
勤務評価システムがどうなってるかは知らんけど、
評価者が一人だけって事でもないだろうし、
外資系だから社風としてのバイアスはある程度排除されてると思うんだけどね。
老舗企業ならまだしもこのざまさんだから評価自身がコリポレに影響受けて女性有利になってると思うが
それを踏まえてこの結果だと男女結果平等主義者にとっては絶望的だよね。 そもそも今の日本の女性社会進出のルーツって、旧財閥系大手が社員に嫁とるために事務職を中心に女を採用した流れじゃん?
お茶くみや寿退社とかオツボネ様って言葉もその残滓だし。
もとは事務職も男性ばっかよ。戦後の白黒写真のころなんて。それでもその頃だって男性だけでも仕事にあぶれてたんだから。
椅子取りする人間が女性含めて倍になっても、結局基礎体力とスペックでしょ。そこで男女で公平にってのが論理的じゃないだろ。雇用する側からしたら。 つまりあれだろ人間の方がAIより判断力がなく劣ってるけど
それを認める判断力すらないってこった >>3
まぁ感情抜きにして客観的かつ合理的に考えたんだろう 人間が不文律の中で女子大卒を不利に扱うなら差別とは言われないからな
アルゴリズムの傾向として見える化されちゃうとマズいよね AIがなぜ減点対象にしたのかその原因が分からなければ本当に女性差別のバイアスがかかっていたのか分からないと思うが? >条件を中立なものとして判断するように変更を加えた
それも結局は手心じゃん
絶対的な公平なんかありえない >>1
女子大卒は減点のどこが差別?
女子大のレベルは低いんだから減点当たり前だろ >>369
そう
突き詰めれば、何を持って「差別」と判断するかをきちんと決める人間側の問題
そこがイイカゲンだから、差別だ、いや能力で選んだ結果だという平行線になるわけで >>105
汚らしいエラ張りブサイク整形レイプ民族チョン。
整形なしには人前に出られないほど醜悪なパンスト朝鮮顏をしてるくせに、
日本人のふりをして性犯罪を犯しまくりやがって。
朝鮮民族は、歴史的によそ様の国でも凶悪な性犯罪を繰り返してきたゴミクズ民族。
東南アジアの女性たちに最も忌み嫌われている。
ベトナムでは朝鮮人による連続強姦で生まれたライダイハンが大量発生して社会問題になっている。
日本人女性たちは戦中も戦後も、朝鮮人による性犯罪に苦しんできた。
いまも日本人女性を汚しまくってるAV男優とAV撮影者のほとんどが在日朝鮮人だ。
●●● 深刻化する在日朝鮮人の性犯罪 ●●●
http://seihanzai.tripod.com
. 何かあった時に決断を下すのは、30代だか位の独身男性が1番的確な判断を下す、みたいな話があるじゃん
そういうのも加味した結果こうなったんじゃないの 男の方が応募が多い=振り分けるサンプルパターンが多い=適性職が多い=男を振り分けるほうがベストマッチパターンになる
能力による判断じゃなくて母体となる応募者を軸にして採用基準にしてしまったわけだ
単純に最短経路を求めるだけのAIじゃ上手くいかないというのがよく分かる >>359
例えばある企業のデータを放り込んだAIは200時間残業でコキ使えって結論を出すだろうが
それでうっかり過労死させたら大問題になって後々大損する
そういう所をAIは加味できない
貰ったデータ以外は見れないから外の社会は知らないからね
学者さんの机上の学問と揶揄されるケースと同類 >>385
そんな考慮するようなAIって漫画や映画じゃあるまいし 学習させたデータが偏ってたからAIも偏った思考に行き着いたと。それ最初に気を付ける所でしょうにw >>319
経験上だけど
女性は仕事する上で
普通なら相手が〇〇でしかるべき(だから私は悪くない)
に陥りがちな気がする
問題を解決する事、仕事を前に進める事より「自分の正当性を確保する・認めさせる事」が優先される的な
まあ業種や会社によって違うかもしれんけどね 女は役に立たないって結果にならないようにするために性別を学習データから除外しても
女は役に立たないからな結果が出てしまったって事だろ
もう学習も選考も男女分けてやればいいじゃん 重み付けで問題視されるまでの見るからに有意なマイナスを食らうって、
入社後にその属性の連中が総じて業務で使えない位しか想像できんよね。 もっと単純に男ばっかりの職種だからそうなったんじゃねーの? >>389
そうなんだよね
別に新しい話じゃなくて、AI機械学習以前に
統計を現実世界の判断に適用する時に注意を要することとして
昔から言われてきたことと本質的には全く変わらない
じゃ、何で今頃こんな話が出てきたかと考えると
穿った見方をすれば
「アマゾンはAI時代()においても男女平等に気配りしてます」
という広報宣伝のために発表したんじゃね?とも思える なんか勝手に「採用後の評価」も反映されてることにしてる奴が多いが、どこにも書いてないぞ。
「女の方が仕事ができないからAIがそう判断した」という第一印象に固執する。そういうのをバイアスと言うんじゃないか? 中央演算処理装置による人工知能AIが女性差別すて男性を選ぶようになった
人間が辿った道が摂理であることが実証された
医療現場でも女医を嫌がり男性を優先したい現場の声から大学入試での差別化が問題化したがこれは尊重すべきである
このようんな民間の市場原理は尊重していくべきでる
無駄とその尻拭いによる疲弊とそれに伴う忌避といった衰退に繋がる >>398
採用のふるい落としで、過去採用同属性の勤務評定を加味しない事なんてまずありえないからね。 現代の社会的価値観やポリコレ的なくだらない事まで学習させなければいけないんだな(´・ω・`) AI「バカを切ったら有能な人材を優遇したと怒られた」 人事採用において、どういう人材を採って、結果どういう実績を上げたかこのリンクが根幹データにあるわけで、
採用後の評価を抜きにして応募者のふるい落としなんて出来んのよね。 AI「女子大卒の採用後を見てみると・・・」
AI「これは減点やむ無しだな」
AI「女子大卒は減点とします」
ま〜ん「差別!」
俺「過去の採用者が減点対象となる行動した結果が招いた公正な判断だろ」
ま〜ん「差別!差別!差別!差別!」
俺「やはりAIは正しかったな」 女子の優秀さを体現しているマドンナ
北川弥生(46) 馬鹿な教師に学んだAIは馬鹿なAIにしかなれないということですね。 よく「Fラン卒でも高卒よりは上だ」なんて意見を耳にしますが
Fラン卒にまともな就職先なんてありません
私の知り合いのFラン卒の就職先をご紹介しますが
介護職(笑)建設作業員(笑)ラーメン屋(笑)
いずれも大学出てまで就く仕事ではありません
ハッキリ言って中卒でも就ける仕事ばかりです
つまり4年という時間と膨大な学費をドブに捨てている分、高卒より質が悪いのです(w >>399
というのをネタじゃなくガチで言ってる勢がいるのが怖い
床に落としたボールが何度やっても必ず北に向かって転がって行くのは
「ボールが北に進みたがっているから」ではなく家の土台が傾いているだけ 5年くらい運用してみて
女子大減点が正しければ気づかないふりして
続ければいいのに
その結果なんらかの揺り戻しがあるか、ないのか、やってみてデータ取ればいいのに AIが工学部に焦点を与えたのなら、女性は少なくなるのが道理。
工学、理数系を学ぶ人間が増えるとAIの選択肢もまた変わるだろ。
合理効率化が売りのAIに男女差別の意思はないだろ。
無理矢理男女五分五分にするのならAIの必要性は皆無なる。 >>400
じゃあソース出して。その「ありえない」とかいう自信はどこからくるの?
別にソースがあったからって、アマゾンの言うバイアス自体がなくなるわけじゃないけど。 バイアスかかったデータとは言うけど
大企業に成長したamazonの過去採用実績に基づいてだったら正しいのでは? 出た結果について機械学習でなぜそうなったかを調べれば良い。 >>411
それなりの規模の企業で社会人の経験があれば、人事にどういうデータが蓄積されてるかわかると思うよw 何を学習させたんだろうね。
履歴書と業務の実績なのか、履歴書と実際に人が判断して採用した結果なのか。 どこの企業でもそうだろ
基本的に女子大創設の趣旨は
良妻賢母なんだから。
どこにもバリバリのキャリアウーマンなんて書いてない。
これを女性差別とか言うならまずは内閣総理大臣を女性にしてみたらどうか?
つまり国自らそんな人事をやってるってこと。 産休なんか必要な制度だとは思うけど機械的に判断すれば休む可能性高い方を取らないとなるだろうし >>277
そりゃそうなんだけど
例えば「地球を永続させるためにはどうすれば良い?」という命題に対して
AIなら「人間活動がその目的を害しているので排除すべき」という判断になるかもしれない。
人間は「ただし人間は滅亡させないものとする」という条件を無意識につけてると思う。
そういう種類の理念ね。 >>306
教師なしだってクラスタリングするだけなんだから一緒と思う。今回のケースだと学習させる統計データ自体にバイアスかかってるんだもん 出勤率や退職率という数字で見たらそういう答えになんだろうね。
人権やら権利をAI考えないだろうしw >>412
>>1読んで
応募が多いから結果的にいい結果も多いという単純な落とし穴を見過ごしてたというだけ >>415
だからソース出せよ。っていうのも意地悪だからもういいよw
採用不採用だけでも今だって尼は3回くらい面接して決めるから、それだけで判断してもいいと思うけどね。
プログラム上もその方が楽だし、過去10年間の対象も数もバラバラな評価データを加味するのも大変だし。 >>408
入社後に企業に与えた損益がデータベースとして入力されているだろう
AIには後にも先にも今でも女性差別の意図は無い
CPUに合理化を追求させいたら女性差別するようになったという結果 産休損害を企業に押し付けたら企業が女を倦厭するのは当然の帰結 初めて意識を持ったコンピューターが出した答えも"何故?"だったと聞く
何故空気を汚すのか?何故森林を破壊するのか?何故核兵器を作るのか?
コンピューターは更に計算し一つの答えを出した
人類は滅びたがっていると >>425
採用行動自体が企業収益の為に行ってるって前提がすっぽり抜けるならやる意味がない。
会社にとって稼げる人材を採るための補助システムから、プログラムの入力単純化の為に
入力データから採用後の実績データ部分を抜くなんて本末転倒もいいところ。 >>223
精度はタスク依存だが、人間もヒト間差あって、明らかな問題以外はずれるよ。最頻値を正解に取れば、やはり8割くらいしか一致しない。 これ凄い大事な話じゃね?
一方に下駄履かせたラインを平等って機械に教え直してるって事じゃん?
これを許すのはあり得ないだろ 成績優秀者が不当に落とされてるならともかく
公平な試験で女の数が少ないならそれが女の能力と言う事だ
結局フェミニストが言ってる事は女にもっと下駄を履かせろって事でしか無く
完全な男性差別のうえ短絡的に過ぎる
http://i.imgur.com/kPgZr99.jpg >>440
それがコリポレ的な結果平等スタイルなんだから、価値観の転換が起こるまでは正義なんだよね。 >>77
>>102
>>140>>155>>184>>286>>302>>376
>>3はなぜ廃止するのか、という意味での
「どうしてそうなる」だ。AIの御講釈を垂れてるアホども AIが論理的に分析した結果だからいいだろ。
過去の実績から算出してるんだし。
寿退社や産休リスク高いのに男と同じ訳がない。 ■ このスレッドは過去ログ倉庫に格納されています