【女性差別】「女子大卒は減点」アマゾンのAI採用、男性優遇判明で廃止に
■ このスレッドは過去ログ倉庫に格納されています
人工知能(AI)アルゴリズムの訓練に使われたデータが、男性の就職希望者を優遇する傾向を生んだ。
https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2018/10/10234907/25388747874b5c0b42ad7k-550x309.jpg
ロイター通信の報道によると、2014年、アマゾンは就職希望者に対して1つ星から5つ星でランク付けをする自動システムの開発に着手した。しかし、このシステムが技術職において男性志願者を優遇していることが分かり、2017年に廃止した。
このAIツールは、アマゾンがそれまで10年間に渡って受け取ってきた履歴書のデータを元に訓練された。テクノロジー産業は男性優位分野であるため、履歴書の大部分は男性から送られてきたものだった。
システムは意図せずして、男性志願者を女性志願者よりも優先して選ぶように訓練されていた。報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。アマゾンは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信を持てなくなったという。
私たちはAIを本質的にバイアスがないものとして扱うことはできない。バイアスのあるデータでシステムを訓練すれば、アルゴリズムもまたバイアスを含むことになる。もし、今回のような公平性を欠いたAI人材採用プログラムが導入前に明るみにならなければ、ビジネスに長年根付いている多様性の問題の数々は解決されず、むしろ固定化されてしまうだろう。
2018年10月11日 10時24分
アスキー
http://ascii.jp/elem/000/001/755/1755527/
他ソース
アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN >>1
別に意図して性別で選んでもいいと思うんだよね
選ばれなかった性の人は自分でそういう事をしない会社を起業すればいい
人が作り上げたものにタダ乗りしなければいいだけ そもそも
男性差別がひどいのに
妥当だろ
男は女を背負っていく立場なんで我慢しろそのぐらい AIが判断したんなら差別もクソもないんじゃないの?
たまたま判断結果が女不利だったからこうなっただけで、女有利だったら問題ないどころか推進してそうな気がする 感心するのは,これが検出できたという事実.
あの日本では ISO9001あたりで糞味噌に言われる事が多い
Management Systemが本当に動いているんだなと感心させられる. おまえらはグーグルのAIアルゴリズムが黒人をゴリラとタグ付けした件を忘れていないか?
社会的なバイアスがAIに反映されてたりするんだよ
日本人をはじめとした黄色人種がモンキーにタグ付けされないと分かんないのかな >>347
Amazonなんて倉庫番なんだから、エロでも変態でも構わんだろ。 >>351
男女平等じゃなく女性優遇じゃないとフェミは怒るからな 女子大と女子高は男性蔑視です。男子という理由だけで入学を認めないとか逆だと差別の連呼だろ 受験者全員合格させたれ
選考で落とすのも差別になっちゃうだろ、そんなこと言い出したら。
>>349
なるほど、戦前からの流れか。 あーあ
単なるAIの演算結果、しかもアルゴの訓練ででさえ
女性差別恐れて引っ込める社会になってもた
ホンマ息がつまるわ 知性の無い会話を4年間続けることのリスクを数値化したら、そりゃそうなるわな >>75
そもそもアメリカに女子大あんの?
少なくとも日本のお茶女女子医大レベルのエリート女子大ってなさそうだけど >>351
おそらくココの人らは、
統計学が一次回帰あたりで止まってルンでしょうw >>361
女子校って男の教員はパラダイスだと思うんだよね これまでの経験上、女子大出の女は嘘泣きして責任を逃れようとする者が多い。
女という立場を悪用して人を陥れたり保身を図ろうとする。 >>361
それら、秘密の花園は文化です。世界遺産です。 女には
一流作家も少ない
科学者技術者も少ない
F-1レーサーもほぼ男だけ
明らかに女は劣っている 仕事に関しては男はゴマすりと足の引っ張り合いが女の比じゃない
場合によっては女の方が正々堂々してる >>368
ラドクリフなんかはハーバードに吸収合併されたけど、まだいくつか残ってるよ。 あくまでアルゴの訓練なんやろ?
結果が男性有利になったら
女性差別恐れて打ち切り
こんなんで開発なんかできるか
結果先にありきで、その為のアルゴ考えてどーすんねん >>365
雅子妃が卒業したのはハーバードのラドクリフカレッジ(女子大)なんだろ? おまえらAI相手なら面接に受かると思ってるんだろ。 女性という単語に反応して減点するってチョロすぎやしないか >>351
Amazonが前処理に問題があることに気がついただけの話で,落とすのは当然というのは
論理の飛躍があると思う.
履歴書の記載だけで,採用対象から落として企業としていいのか?というのは個々の企業が
判断することで,Amazonは,良くないと思っただけでしょ?
今回のケースは,向こうのレジュメに学歴があるケースがどれだけあるかは知らないけれど,
もしかしたら学歴を通常より多く書いた人が女性に多かっただけかもしれないし. まあ実際出産で抜ける女性は足手まといだよ
あくまで利益追求の企業にとってはな >>357
つまり女性軽視・排除が日本社会に蔓延してるってことだよな
最初から女子減点をAIがしたってことやん
日本国=女子差別画から様になって恥晒しなのにここの馬鹿ったら喜んでるわw >>133
いや、理性的ということだろう
本当の意味でwww 女子大は男性差別だから
差別大学の卒業生は差別主義者なので排除
このAIは正しい >>369
小難しい統計学の勉強なんかしなくてもとにかくデータをぶち込めば勝手に特徴を抽出してくれるというのも
ディープラーニングがうけたポイントなんだろうね
計算尺と関数表から関数電卓になったようなもの 参考にするデータが狂ってんだから、学習するほどAIも狂っていくわな AIをどう訓練したって、「例外的に優秀な人間を表面的なカテゴライズで落とす」ことは防ぎようがないだろ
そもそもの目的がそれなんだから >368
セブンシスターズをはじめ(バーナード・カレッジ、ブリンマー大学
マウント・ホリヨーク大学、ラドクリフ・カレッジ(Radcliffe College)
スミス大学、ヴァッサー大学
ウェルズリー大学)たくさんある >>384
その発想で少子化や人手不足やら介護不足やらなるわけで
男も育休必須で女も働くの必須にすりゃいいんだよね AIがネットで学習するとヒトラー崇拝、ホロコースト否定の極右化するからな
学習元データがダメだと、ダメなまま学習してしまう 男と女をなんでもかんでも同待遇にするのは無理がある
チンコもついてなければ体の強さ、出産の有無があるんだから >>9
AIの学習に理由はないよ
なんとなくパターンで判断してるんだよ >>382
「性別」というパラメータがないとして、長期に渡って離脱しがち(産休、育休)な人の経歴に"女子"って文字列が入ってたのを判断してんじゃない 性別以前に当然出身大学でもふるいにかけてるようだけど
日本だと学歴フィルターって騒がれるのな。 都合の悪い結論は無かったことにするって、サヨの常套手段だけどさ おそらく実際に採用される人間や勤続が長いのが男が多いので、
AIは先回りして男を優先的に採用しはじめたんだろうなぁぁ。 数百万年も外で仲間と狩りをするように進化した男と
子育てに特化した女が同じ能力なわけがない >>393
AIは企業利益を最大化するための判断を下しただけ
フェミが現実を受け入れられないだけだ 結局、AIでも女性人種特定民族に手加減を加えて
最終的になんだかわからないものになるんじゃないか >>408
10年間の履歴書自体が狂ってる証明をAIにされかけたから慌てて開発中止したって話だぞ >>407
その数百万年ってなんなんだろうね
長すぎ
人類バカすぎるw ロボットが障害物避けるのにはAI有効だけど面接とかは難しいんだな >>400
そやな
なんか今の女性差別てか女性団体の主張おかしいは
女は過労死しろ
ってな主張にホンマなってもうとる >>406
アメリカで勤続年数の長さってどれくらい評価されるもんなんだろ。
日本みたいに新卒カード最上位でなく優秀な中途入れてなんぼの雇用形態だし。 そりゃそうだ
・辞め難い
・長時間労働OK
・能力高い
でAIに選別させれば
男選ぶに決まってんじゃん 慶應女子、女子学院、桜蔭、神戸女学院とかのエリート女子高卒業生は、男まさりで力量がある方々は多いのでは?
共学と違い男に頼れないから、しっかりしてくると聞いたことがある。 科学的に正しいとAIが判断したのに、それを無きものにするのは、逆差別なんだけど >>410
現実を受け入れられないから入力されたデータが狂ってると思い込みたいわけかw >>415
アメリカなんか数回ステップアップで転職
当たり前なんじゃ? >>402
そこかな
産休育休取る人をスタンダードに設定しておくべきだね
産休育休取らない人は生産性()が無い社会悪を含む人材とみなすような学習させたらいかな 東京医大卒の女医
東京女子医大卒の女医
どちらが優秀かを考えたら分かる 生理とか妊娠考慮したら効率が悪いって認識判断したのかなAI(´・ω・`)うーん >>421
過去のデータが差別的だったことをAIに証明されちまったんだしな、AIに忖度はむりだなw まあ女は職歴リセットする機会が格段に高いからな
子供が病気、障害持ってたらもういろんな意味で無理だろ 結局AIがやってるのは経験からの学習だから、決定が保守的になるのは仕方ない。
学歴での足切りは当然やってるとして、人種はどう判断してるのか気になる。 利益最大化をなんの歪みも先入観もなく
AIに選ばしたら男ばっかになるよそりゃ 女性だけのテクノロジー企業を作って一般社会と競争してみればわかる。 >>428
これ教師なし学習でしょ
別にデータは差別的じゃないんじゃね 妊娠が大丈夫だった、出産が大丈夫だった、預ける場所もあったとか各ステージうまくいったとしても、学校でうまくいかなかったりだのなんかの要素で育児に方向展開せざるを得ない機会が転がってる
エジソンが学校行かなくて済んだのはお母さんが教えるって決めたからだ 女尊男卑とか主張してるくせに客観的にAIが考慮する日本社会は男尊女卑ってことやん >>383
>Amazonが前処理に問題がある
これをどのように「問題」と見なすかが、まず一番大事な所。
「男性優先で選考するように訓練されていた」と記事にはあるけど、
それがAI自己学習の結果なら、修正自体が「男性差別」だよねと言う話。
アルゴリズムを修正して結果が変わったのなら、まだ分かるが。
Amazonは民間企業なので、「男性差別」ではなく「女性差別」と非難されないようにした、
と言うリスク管理が妥当なので、それはそれでいいんだけどね。
ただ、差別である事は変わっていない。
後、前にも書いたけど、希望者全員に会う企業でもなければ、
書類情報のみで落とすのは「当然」と言うか、「必須」の業務だよ。 男も数年で辞めるのが普通の雇用形態で
出産が障壁になるとも思えん。
新卒至上終身雇用年功序列じゃないぞ。 >>143
1人も、とか言ってる時点でお前が相当頭の悪いBBAと分かる その話は技術者のケースであって対象が看護師とか介護だったら逆の結果が出たんじゃないかと思ってしまう。 >>433
会社の利益は子供を産んではくれないことを考慮した学習させたらいいのかな
産休育休の必要性を人工知能に叩き込むw
なんかいろいろ怖いな人工知能って >>428
差別ではないと思うよ
採用したメンバーが採用後に能力を発揮できなかったらマイナス評価になる
Amazonが性別によって仕事を限定しているのでもない限り評価は平等だ >>425
いや、AIは産休とか育休自体を悪と判断しているとは思わない
休職理由をマスクした上で"女子〜"は「休暇日数の多くなる経歴」と判断してるんじゃないか これからはAI!って盛り上がってる人がいるけど
喰わせるデータ次第でどうにでもなっちゃうのがAI
だいぶ前に美人判定するAI作ったら製作者達の趣味が反映されて
黒人はブスと判定するAIになっていたというのがあっただろ AIっていってもこれは「考えてる」わけではないということだね
過去の人間の判断結果を再現するだけだと
それが正しいという前提が崩れたら使えない >>436
データが差別的だったので、それを元にAIが差別的な結果を導き出した話
AIに忖度はできないので差別発見機として非常に優秀なことがわかったな AIを活用と散々言いながら、AIの判断を却下。
前途多難だな。 まあ、何もアルゴの訓練まで辞める必要はないわ
女性差別恐れすぎて何もできない社会になるのは嫌やわ ■ このスレッドは過去ログ倉庫に格納されています