【女性差別】「女子大卒は減点」アマゾンのAI採用、男性優遇判明で廃止に★2
■ このスレッドは過去ログ倉庫に格納されています
人工知能(AI)アルゴリズムの訓練に使われたデータが、男性の就職希望者を優遇する傾向を生んだ。
https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2018/10/10234907/25388747874b5c0b42ad7k-550x309.jpg
ロイター通信の報道によると、2014年、アマゾンは就職希望者に対して1つ星から5つ星でランク付けをする自動システムの開発に着手した。しかし、このシステムが技術職において男性志願者を優遇していることが分かり、2017年に廃止した。
このAIツールは、アマゾンがそれまで10年間に渡って受け取ってきた履歴書のデータを元に訓練された。テクノロジー産業は男性優位分野であるため、履歴書の大部分は男性から送られてきたものだった。
システムは意図せずして、男性志願者を女性志願者よりも優先して選ぶように訓練されていた。報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。アマゾンは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信を持てなくなったという。
私たちはAIを本質的にバイアスがないものとして扱うことはできない。バイアスのあるデータでシステムを訓練すれば、アルゴリズムもまたバイアスを含むことになる。もし、今回のような公平性を欠いたAI人材採用プログラムが導入前に明るみにならなければ、ビジネスに長年根付いている多様性の問題の数々は解決されず、むしろ固定化されてしまうだろう。
2018年10月11日 10時24分
アスキー
http://ascii.jp/elem/000/001/755/1755527/
他ソース
アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN
★1が立った時間 2018/10/11(木) 20:09:52.79
前スレ
https://asahi.5ch.net/test/read.cgi/newsplus/1539256192/ >>21
そうやった結果、女性の比率が低くなったってだけじゃね 女性は初潮まで成長しますが、初潮を迎えると成長が止まります。
このため、高校に入っても身長伸びる男子と異なり、中学生で止まったままになるのが女子。 おいおい、AIが思考停止してどうする
データの蓄積で正しい判断をしてた結果だろうが >>244
もっと単純だと思うよ。
>>1にあるように、女子大生の採用率が低いから、女子大の「女子」というワードがあればポイントを低くした。
学歴は重要なファクターだから採用判断に使いたいけど、こういう問題が起きてしまった。 >>254
良くないよ
女性が不利になるのが問題なんだから
事実であることよりも政治的に満足していることのほうが優先されるから
AIもそれにおもねったものにしないからいつもこういうニュースになる 例えば妻が育休を取ると、間接的には夫の会社がその恩恵を受けている事になる
妻の会社の同僚は迷惑を被るだけ
夫にも育休を取らせろよとマジで思う AIさんから見ても女は劣るって判断だったんだろ。
さすがAIさん。賢い。 美男美女、醜男醜女を採用した場合、職場でそれぞれの割合を変えた場合等、全部シミュレーションしてみろ
既存の職場で、誰をどこに人事異動したらどうなるとか、その後の職場の雰囲気、暗くなったとか明るくなったとか、業績の上下等々、リアルタイムのデータ収集とシミュレーションをして、定期や臨時の人事異動も提案するシステム作ったら、外販できそう 今後のAIは人間の不合理さも学習できるようになるのが課題だな データに女性をいれて、AIで分析したところ、男性よりも使えないという結果が出たんだろ。
それを補正するほうが不公平だろ。
データ不足、分析不足で間違った結果が出た可能性はあるが。 >>142
>>166
「理念」を持たないと当然「生物学的性差に基づく能力差(あるいはレーダーチャートで
表現できるような指向性のある性別による能力差)」が結果に出ちゃって、
ある種の人の「お好みの結果」が永遠に出ないんだよね。
Amazonの目指すところがどこか知らないけど。 >>217
所詮ポリコレも、パヨクの方を向いた「忖度」に過ぎないんだよねえ 実際の職場の業績に影響を与える要因をすべて加味した上でシミュレーションしないと精度上がらないよ >>1
ビジネスに長年根付いている多様性の問題の数々は解決されず、むしろ固定化されてしまうだろう。
いやいや多様性を持たせたかったらAIで採用とかやっちゃだめだろw >>239
実際現時点の会社にはマイナスなんだろ
例えば女子トイレが少なかったりすれば即響くしね
男性が優遇されてきたのが原因で女は成果を出しにくかったという結論なのかもしれないのに
女を雇うと成果を出しにくいから今から男性を雇って優遇しようという結論は謎
女を氷河期世代、男を団塊世代に置き換えるとわかりやすい
女の場合実際に体の作りも違うから本当の所はわかんないわけだけど
氷河期世代と団塊世代では大した違いがないはずなのに出てる成果があからさまに… >>236
あれはデータ量が足りない面もあったけど要因の一つとしては間違いではないからね んじゃAIなんて怖くて使えないってことになっちゃうぞw > 報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。
これ本当なのかな????
そんな事するのか???
最近の報道は嘘ばっかだからな
フェイクじゃないの? まあ、AI的にこのざまで取った女性ってのがろくでもない結果しか生んでなかったってだけで、
一般論として女性がダメダメだとは言ってない。
業種や会社で合う合わないはあるだろうしな。
という話すら、結果平等主義者には理解されないんだろうな。 まんさんが社長の会社でもなるべく男を採用したいとか普通に言っとるよ その女性らがamazonにどう貢献したのかデータだしてみろ >>254
それがダメと言うのが今回のストーリーでしょ
この話、別に新しいものじゃなくて
「当初想定してなかった相関関係(因果関係とは限らない)がAIを使った意図しない差別につながる」
という以前から言われていた話
一番極端でわかりやすいのだと
過去の犯罪者の顔画像から学習したら、AIは黒人を見るたびに犯罪者扱いするようになったとか
そういうの色々あるでしょ
だから、データを沢山集めてはい学習しました。AIは最も正しい確率が高い判断をします
みたいなのをナイーブに実世界に適用してはダメなの >>239
女子のとか女子大のとかはデートを取り出す条件式にしかならないから
蓄積されているデータ上の判断でしかないんだよな
女だったら加点するくらいの式がないと男が優遇されてしまうということだろう
ヒトラーのときと同じくプログラマーが責任取らされるんだろうなw つか採用段階で男性採用枠と女性採用枠を同数、同一労働同一賃金で設ければいいだけやん 根底にあるのは「数学」だからね
数学を否定したり無いことにはできない
政治的な声の大きさで誤魔化すしかない >>3
現状のデータに強烈なフィルターがかかっていてそれを学習したから >>283
組織の最適化効率化からは遠ざかっていくけど、ポリコレ上はそれが正しいんだろうね。 これって過去に実際採用されたのと比較したの?
実際の採用実績がそうならベストなAIじゃねえか
女が活躍してるのなんかアニメの中だけだわな 確かに、女子大卒は共学の大卒女より劣っている。
御茶ノ水でさえ劣っている。 評価基準が今までの採用傾向ならそうなって当然なんだよなあ…
せめて採用後の成果に基づいて判断しないと意味ないと思うんだけど 障害者雇用割合なんかも微妙だよね
っつーても制度自体が微妙だけども >>1
Amazonカスタマーへの電話での問い合わせは
オペレーターが女性だった場合は対応が非常に的確で
こちらの言うことを一回で理解してくれるし対処が速い
男性オペレーターは頓珍漢なのが多くて飲み込みが悪く、話がなかなか前に進まない 女性は真面目に仕事に対する情熱が無いからじゃ無いの? >>267
ある種の人々はそれが気に入らないから、気に入るような結果が出るようさらに偏ったデータを入力し続けるだろうね
最後は 「もうやめた」 >>288
機械学習AIってのは、そういうものなんだけどね。
最適解を探索する為に過去データをひたすら学習し続けていくだけ。
ここにおいての過去データとは履歴書と採用以降の勤務データだと思われ。 でも企業にとって大部分の女性が使いにくいのは事実だろうから
AIは感情抜きで正確に学習してるんだろうね 周りの女子大卒、クソブサビッチだらけだから排除したくなる気持ちはわかる >>3
AIは渡されたデータ自体が「全体として何らかの偏りに影響された結果の産物かどうか」を判別する機能を持たないから
十分な母集団の中の特異点はピックアップできるが
与えられた全部がバイアスかかり済なら、それを標準値に定めてしまうのは不可避 >>292
なんといっても霞が関で水増ししているくらいだからねぇ
真に優秀な集団なのであればそろいもそろって何でそうしてるんだとなる
むしろ採用者の方から頭下げてきてもらわないといけないはずなのにそんなに優秀なら >>297
> 機械学習AIってのは、そういうものなんだけどね。
> 最適解を探索する為に過去データをひたすら学習し続けていくだけ。
そうそう
合理的判断なんでしょ 自動化で女性の評価が低くなるから廃止って、男性の逆差別じゃないの? >>283
その通りなんだけど、そうすると今度は
肌の色、民族が「意図せず」偏っていて差別だとか
出身地が「意図せず」偏っていて差別だとか出てくる
今は、人間が「偏っていることが正しくないと信じるもの」を偏らないように固定して解を求めるように運用してる
近い未来は「人間が偏ってはいけないと感じるであろうパラメータ」自体をAIが自動抽出して最適解を出すようになるだろう 特定の「女子大」卒って
特定の「大学」卒排除と一緒だろ?
なんか問題でもあるのか? >>122
臭そうなのが来てくれて嬉しい。
どこがズレズレなのが教えて下さい。 >>311
結局は、「何が公正か」という哲学の問題になってきそうな >>299
性で叩く前に記事を嫁
男性志願者を女性志願者より優遇して選んだとある
女子大はその判断材料の一つだよ 医大の話で日本ってどんだけ後進国かよw
なんて思っていたら世界の最先端を突き進んでいたとは 最近のAIって考えてるわけじゃないもんな
ただ与えられた情報から良いとされたものを選んでるだけだし
昔のAIのほうが夢があった 女を教育する仕事をして来た。
大量な女と関わり、そして行く末を見て来たが、
あいつらは基本、自分の事しか考えていない。
ルールより「私」
決められた事より私の感情
私を敬いなさい
私を優先しなさい
私、私、私
教育するだけムダ
理が通用しない 勘違いしてる人いるけど、今まで男の採用が多かったのはそれはそれで良いんだよ。
だって男の方が圧倒的に多いわけで、当然優秀な人間も男に偏る。それは公正。
問題なのはジェンダーの要素が判断に使われてしまったこと。
アマゾンも性別は外してAIに読ませてたと思うが、AIは女子大というワードと採用実績を結びつけて減点してしまった。
性差別がなぜ問題なのかは言うに及ばずだが、実際上記の男性優位の理由と女子大を排除することは直接結び付かない。 >>314
機械平等能力主義を謳いながら、それとは全く相反する結果平等主義の連中の声が大きい歪な社会なのよね、今は。 こんなスレで女性蔑視しても
お前が女にモテないことに変わりはないぞ 人間の曖昧さがAIの発展を妨げてますね
人間に近づこうとすると首とか可哀想だろ
こんな事やってるとAI差別って判断されて人間粛清されるぞっと バイアスが掛かった結果のデータから学習したらバイアスが掛かる。
仕方ないね。 >>320
使えない連中の共通ワードにたまたま”女子大”ってのが浮上してきただけでしょ。
人間がやってるのでもどこそこの大学の奴は使えないとか○学部は今一なのばかりって印象が悪いってのと同じレベルの話。
たまたま女子大がキーワードだから女性排除になるって騒いでるだけ。 有能な人が作った有能なシステムを使おうとすると
バカが足を引っ張るから使い物にならなくなる
ITあるある >>320
結局ね、色んな要素(パラメータ)を機械学習にぶち込むからこういう問題が起こるのであって
採用みたいな単純にコントロール可能なものは求める能力の試験の点数以外を一切見ないで判断するのが基本正しいということ
プログラマー採用ならコード書かせて、それだけで判断する、みたいな
犯罪者の再犯率判定とか、生命保険のリスク判断とかはそう簡単に行かないからずっとずっと難しい 日本も海外も女への評価はこんなもんなんだろうね。
まぁ仕方ないけどねw 古今東西の100メートル走の記録と走者の個人プロファイルを分析したら黒人男性スカウトしとけば安パイって出たというのと何が違うんだ 結局AIって元のデータ入れた人の思想や価値観のコピーなんだよね 女性差別したっていいだろ
明らかに劣った生き物なんだし >>325
偏りを作るのはAIの基本機能だしね
重みってその為のモノ
AI否定してる人は「AIはネトウヨ」と言っておけばいいのよ
それで間違いないから 離職率高い、産休・育休・生理休暇でよく休む
そりゃ普通に考えたら女入れないのは当然でしょ
AIの判断は至極合理的で当然 実際女の方が働きが悪かっただけだろ
単に統計的な結果 >>335
まあこれで主観が入る余地があるとしたら、採用者の入社後何年か分の勤務評価だろうけどね。
アマゾン社内の現場で女は使えねーって判断されてたら当然それはそのまま反映されるだろうさ。 フェミの人たちって、自分が経営者だったら、
いろいろ優遇が必要で面倒くさい人を従業員に積極採用しようと思うのだろうか? 結局AIの出した結果に人の都合が入るなら意味ないなって話か そもそも人工知能の生みの親であるアラン・チューリングが
同性愛者で女嫌いだったから
そこからバイアスが掛かっている AIが判断してる、きちんと統計とって、会社の利益としては、
女子大卒を避けるのは合理的な理由で正解ということなのかな
差別は問題だが、会社の利益にはなる >>259
俺が言った良いの意味は
AIを使った結果としては妥当だという意味だよ >>346
差別ってなあにって話だな。
機械には感情なんてないぞいw 過去データから算出した結果でしょ
男の方が仕事効率が良いデータを無視して
女を無理矢理採用する方が差別だと思うけどな ■ このスレッドは過去ログ倉庫に格納されています