【女性差別】「女子大卒は減点」アマゾンのAI採用、男性優遇判明で廃止に
■ このスレッドは過去ログ倉庫に格納されています
人工知能(AI)アルゴリズムの訓練に使われたデータが、男性の就職希望者を優遇する傾向を生んだ。
https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2018/10/10234907/25388747874b5c0b42ad7k-550x309.jpg
ロイター通信の報道によると、2014年、アマゾンは就職希望者に対して1つ星から5つ星でランク付けをする自動システムの開発に着手した。しかし、このシステムが技術職において男性志願者を優遇していることが分かり、2017年に廃止した。
このAIツールは、アマゾンがそれまで10年間に渡って受け取ってきた履歴書のデータを元に訓練された。テクノロジー産業は男性優位分野であるため、履歴書の大部分は男性から送られてきたものだった。
システムは意図せずして、男性志願者を女性志願者よりも優先して選ぶように訓練されていた。報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。アマゾンは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信を持てなくなったという。
私たちはAIを本質的にバイアスがないものとして扱うことはできない。バイアスのあるデータでシステムを訓練すれば、アルゴリズムもまたバイアスを含むことになる。もし、今回のような公平性を欠いたAI人材採用プログラムが導入前に明るみにならなければ、ビジネスに長年根付いている多様性の問題の数々は解決されず、むしろ固定化されてしまうだろう。
2018年10月11日 10時24分
アスキー
http://ascii.jp/elem/000/001/755/1755527/
他ソース
アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN AIがネットで学習するとヒトラー崇拝、ホロコースト否定の極右化するからな
学習元データがダメだと、ダメなまま学習してしまう 男と女をなんでもかんでも同待遇にするのは無理がある
チンコもついてなければ体の強さ、出産の有無があるんだから >>9
AIの学習に理由はないよ
なんとなくパターンで判断してるんだよ >>382
「性別」というパラメータがないとして、長期に渡って離脱しがち(産休、育休)な人の経歴に"女子"って文字列が入ってたのを判断してんじゃない 性別以前に当然出身大学でもふるいにかけてるようだけど
日本だと学歴フィルターって騒がれるのな。 都合の悪い結論は無かったことにするって、サヨの常套手段だけどさ おそらく実際に採用される人間や勤続が長いのが男が多いので、
AIは先回りして男を優先的に採用しはじめたんだろうなぁぁ。 数百万年も外で仲間と狩りをするように進化した男と
子育てに特化した女が同じ能力なわけがない >>393
AIは企業利益を最大化するための判断を下しただけ
フェミが現実を受け入れられないだけだ 結局、AIでも女性人種特定民族に手加減を加えて
最終的になんだかわからないものになるんじゃないか >>408
10年間の履歴書自体が狂ってる証明をAIにされかけたから慌てて開発中止したって話だぞ >>407
その数百万年ってなんなんだろうね
長すぎ
人類バカすぎるw ロボットが障害物避けるのにはAI有効だけど面接とかは難しいんだな >>400
そやな
なんか今の女性差別てか女性団体の主張おかしいは
女は過労死しろ
ってな主張にホンマなってもうとる >>406
アメリカで勤続年数の長さってどれくらい評価されるもんなんだろ。
日本みたいに新卒カード最上位でなく優秀な中途入れてなんぼの雇用形態だし。 そりゃそうだ
・辞め難い
・長時間労働OK
・能力高い
でAIに選別させれば
男選ぶに決まってんじゃん 慶應女子、女子学院、桜蔭、神戸女学院とかのエリート女子高卒業生は、男まさりで力量がある方々は多いのでは?
共学と違い男に頼れないから、しっかりしてくると聞いたことがある。 科学的に正しいとAIが判断したのに、それを無きものにするのは、逆差別なんだけど >>410
現実を受け入れられないから入力されたデータが狂ってると思い込みたいわけかw >>415
アメリカなんか数回ステップアップで転職
当たり前なんじゃ? >>402
そこかな
産休育休取る人をスタンダードに設定しておくべきだね
産休育休取らない人は生産性()が無い社会悪を含む人材とみなすような学習させたらいかな 東京医大卒の女医
東京女子医大卒の女医
どちらが優秀かを考えたら分かる 生理とか妊娠考慮したら効率が悪いって認識判断したのかなAI(´・ω・`)うーん >>421
過去のデータが差別的だったことをAIに証明されちまったんだしな、AIに忖度はむりだなw まあ女は職歴リセットする機会が格段に高いからな
子供が病気、障害持ってたらもういろんな意味で無理だろ 結局AIがやってるのは経験からの学習だから、決定が保守的になるのは仕方ない。
学歴での足切りは当然やってるとして、人種はどう判断してるのか気になる。 利益最大化をなんの歪みも先入観もなく
AIに選ばしたら男ばっかになるよそりゃ 女性だけのテクノロジー企業を作って一般社会と競争してみればわかる。 >>428
これ教師なし学習でしょ
別にデータは差別的じゃないんじゃね 妊娠が大丈夫だった、出産が大丈夫だった、預ける場所もあったとか各ステージうまくいったとしても、学校でうまくいかなかったりだのなんかの要素で育児に方向展開せざるを得ない機会が転がってる
エジソンが学校行かなくて済んだのはお母さんが教えるって決めたからだ 女尊男卑とか主張してるくせに客観的にAIが考慮する日本社会は男尊女卑ってことやん >>383
>Amazonが前処理に問題がある
これをどのように「問題」と見なすかが、まず一番大事な所。
「男性優先で選考するように訓練されていた」と記事にはあるけど、
それがAI自己学習の結果なら、修正自体が「男性差別」だよねと言う話。
アルゴリズムを修正して結果が変わったのなら、まだ分かるが。
Amazonは民間企業なので、「男性差別」ではなく「女性差別」と非難されないようにした、
と言うリスク管理が妥当なので、それはそれでいいんだけどね。
ただ、差別である事は変わっていない。
後、前にも書いたけど、希望者全員に会う企業でもなければ、
書類情報のみで落とすのは「当然」と言うか、「必須」の業務だよ。 男も数年で辞めるのが普通の雇用形態で
出産が障壁になるとも思えん。
新卒至上終身雇用年功序列じゃないぞ。 >>143
1人も、とか言ってる時点でお前が相当頭の悪いBBAと分かる その話は技術者のケースであって対象が看護師とか介護だったら逆の結果が出たんじゃないかと思ってしまう。 >>433
会社の利益は子供を産んではくれないことを考慮した学習させたらいいのかな
産休育休の必要性を人工知能に叩き込むw
なんかいろいろ怖いな人工知能って >>428
差別ではないと思うよ
採用したメンバーが採用後に能力を発揮できなかったらマイナス評価になる
Amazonが性別によって仕事を限定しているのでもない限り評価は平等だ >>425
いや、AIは産休とか育休自体を悪と判断しているとは思わない
休職理由をマスクした上で"女子〜"は「休暇日数の多くなる経歴」と判断してるんじゃないか これからはAI!って盛り上がってる人がいるけど
喰わせるデータ次第でどうにでもなっちゃうのがAI
だいぶ前に美人判定するAI作ったら製作者達の趣味が反映されて
黒人はブスと判定するAIになっていたというのがあっただろ AIっていってもこれは「考えてる」わけではないということだね
過去の人間の判断結果を再現するだけだと
それが正しいという前提が崩れたら使えない >>436
データが差別的だったので、それを元にAIが差別的な結果を導き出した話
AIに忖度はできないので差別発見機として非常に優秀なことがわかったな AIを活用と散々言いながら、AIの判断を却下。
前途多難だな。 まあ、何もアルゴの訓練まで辞める必要はないわ
女性差別恐れすぎて何もできない社会になるのは嫌やわ いや、むしろ女性限定という優遇を省いて共学。取ったんじゃないか?
差別を無くしたともいえるんじゃ……? >>446
それは乱暴すぎやしないか
産休育休をマスクする意味がないし 女子の大学生じゃなくて、女子大学の学生だろ。
今の男女平等の時代にぬるま湯で学んでる奴の評価が低いのは当然のことだ。 >>450
AIの判断に従ったほうが勝つような世界ならそういうのは淘汰されていくだろ
プロ棋士じゃあるまいしAIを使ってはならないというルールはないんだから 普通にデータ与えれば出産育児の時は女性のほうが時間を取られて、その分仕事の閊える時間が減るのだから当たり前なんだけどな。
AIは空気読まないからありのままの結果を出しちゃったんだね。 AI相手に学力計算力でマウント取れるほど優秀なやつなんておるんか >>453
人間なら隠しておくことも、AIは隠す理由がわからないしな、人間的な判断はAIにはまだ無理なようだ >>1
くそわろたwww
だけど職場には適度な女も必要だから、
クソAIは消えていい。 >>349
旧制女子専門学校というのがあってだな。
旧制大学の社会的な位置付けは今の大学院修士課程とよく似ていて、
今の大学学部に一番近いのは旧制専門学校だった。
専門学校レベルまでは女子の教育機関があった。
そして高校・大学予科ではなく専門学校から大学に進むルートがあった。
これを傍系進学と言って、特に地方の帝国大学には傍系進学者が多かった。
このルートを使って女子が旧制大学に進学した例がある。 人間「AIに利益大きくなるよう採用任せよ」
AI「でけたで」
人間「男多くね?」
AI「なんの先入観もなく選んだよ」
人間「女多くなるように設定して」
AI「でけたで」
人間「やっぱ男多い、AI処分ね」
AI「(;。;)」 >>417
高学歴の女でも、
男みたいに理論的に物事考えたり、抽象的に物事考えたりするのは苦手だよ
話の繋がりがわからないとかすぐに言われるからな
上で出てるけど、女の仕事は家の周りの木の実を取るのが仕事だったから、目の前のことを見るのは得意だけど
狩りをするために、獲物を捕まえるための計画の4手先5手先を頭の中で考えるのは女には相当難しいらしい
女は目の前のことしか考えれないから駄目 大手の技術課だが女の技術者は30人中1人しかいねえな
まあその人は仕事出来るけど |ω・`)
保育所で子供が熱だしたの!で診察ほっぽりだして迎えに行く女医・・・ないな!
さすがに我が子より患者大切にするよな! >>444
広い視野で長い目で見れば子供を産む事は会社の利益でもなるんだからな
将来の顧客なんだし
トヨタなんかは社員の給料を絞り過ぎて顧客である社員が車を買えないようにしてしまった
社会全体のAIを教育すべきかもしれん AI「女は不要。」
バカ社長「よし、全社員男にするぞ。」
AI「社長もいらない。おまえが一番生産性が悪い。」 >>455
休暇の理由を見てないってことだ
企業から見たら何日稼働できた・できなかったかどうかであって休暇の理由なんて利益と関係ないからな スレ半分消費してもお題を理解してないバカが多いなw >>398
先進諸国は軒並み少子化。
女性がわがままやり過ぎなんでしょ。 本当の事を言うとAIですら廃止される
結果、真実は語られなくなり差別が蔓延る >>9
合理的に判断しただけ
男女雇用機会均等法で無理やり同じ条件にしても
育ってきた環境が違うから〜 >特定の女子大学の名前
この大学が駄目大学なんじゃないの
AIが正直に言ったら
そういう事が有ってはならないと人のバイアスがかかると言うね >>475
属性によって貢献度にハンディキャップを設けるのが現実解じゃないかな
そういうことを無視した企業に駆逐されていく可能性はあるけど 1.女が無能
2.女は有能だが社会構造上は役に立たない
いずれにしても女を採用しても良いことはないってこった >>478
外資系金融なんかみてると
接待要員以外は
男ばっかなので最適解なんだろうね 実績のある従業員と共通点が多いほど加点する方式なら不味いことになるよな
過去の採用履歴から判断してるならしゃーないだろうけど >>475
それでは企業が人間社会の構成要素であるという視点が欠けている
だから欠陥が出たんだろうな
人間を育て増やすことを評価しないシステムを学習させたAIの面接がうまく機能しないわけだ >特定の女子大学の名前を含む履歴書を減点
どこの企業でも普通にやってるだろ?
DQNヤリマン女子大から採用したら企業の存続にかかわる問題起こしかねんのだから >>487
企業利益という観点から言えば欠陥ではないよ
これはAmazonのためのAIであって君のためのAIではない >>477
んなわけないじゃん
昔は子供はタダの労働力
今は高度人材じゃないと使えないから
子供は少なくなるのはあたりまえ
何でも女のせいにするなと 履歴書送る人数に男女差がある時点で、その分野に興味があるかどうかがわかる
その分野に興味があるというのは最初に必要な大事な才能
好きでなければ続かないし、才能を伸ばせない
AIはあってる >>476
お題ってか女性差別ってのに反応してる感じやな
ま、今の女性差別に疑問を感じてる人が多いんやろな
女性団体のメンツでもって差別にされてしまう世の中なんて、やろな >>489
アマゾンは廃止してるんだから欠陥でしょうに
記事読んでないの >>491
イスラムが増えている現状を見ると、先進諸国は墓穴掘っている。
女性がわがまますぎ。 差別的な人間から学ぶんだからAIも差別的になるわなw グーグルは女性の管理職を採用したら無能すぎて、
優秀な部下が辞めまくったんだよなw ■ このスレッドは過去ログ倉庫に格納されています