【女性差別】「女子大卒は減点」アマゾンのAI採用、男性優遇判明で廃止に
■ このスレッドは過去ログ倉庫に格納されています
人工知能(AI)アルゴリズムの訓練に使われたデータが、男性の就職希望者を優遇する傾向を生んだ。
https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2018/10/10234907/25388747874b5c0b42ad7k-550x309.jpg
ロイター通信の報道によると、2014年、アマゾンは就職希望者に対して1つ星から5つ星でランク付けをする自動システムの開発に着手した。しかし、このシステムが技術職において男性志願者を優遇していることが分かり、2017年に廃止した。
このAIツールは、アマゾンがそれまで10年間に渡って受け取ってきた履歴書のデータを元に訓練された。テクノロジー産業は男性優位分野であるため、履歴書の大部分は男性から送られてきたものだった。
システムは意図せずして、男性志願者を女性志願者よりも優先して選ぶように訓練されていた。報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。アマゾンは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信を持てなくなったという。
私たちはAIを本質的にバイアスがないものとして扱うことはできない。バイアスのあるデータでシステムを訓練すれば、アルゴリズムもまたバイアスを含むことになる。もし、今回のような公平性を欠いたAI人材採用プログラムが導入前に明るみにならなければ、ビジネスに長年根付いている多様性の問題の数々は解決されず、むしろ固定化されてしまうだろう。
2018年10月11日 10時24分
アスキー
http://ascii.jp/elem/000/001/755/1755527/
他ソース
アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN >>5
英語のレジュメには性別生年月日写真は載せないもんだよ >>727
女が優秀なら旦那に家事育児させて起業しろ >>725
前にマイクロソフトがヒトラーを尊敬し出してのと同じ
インプットが偏ると結論が偏る
AIが悪いのではなくAIの教育が悪かった
AIは子供と同じ
何を教えられたかで結論が決まる >>730
お前の馬鹿な思考なんか誰が理解するんだ >>734
誰がどのように 「データの偏り」 を判定するんだ? このアマゾンのAIを20000体倒したら
俺はレベルいくつになるんだろうなあ 今まで男性が主流だったというデータから女性を除外した訳だが、ではどういうデータを与えたら男女区別なく判定したんだろうな
男女差別はいけない、近年は女性でも技術者として活躍しているというデータを与えれば女性だからというだけで減点はしなくなるか
しかしまぁ自分に都合のいい結果だけ求めて色々バイアスかけたら結局AIにやらせる意味が無いような気もするが どの仕事も女性は下駄をはかせてもらいまくり。
そりゃ質が低下するわな。 ただ、このAmazonのAIが役に立たなさそうなのは
何となく察しが付く
既存のバイアスを強化する方向にしか働かんだろコレ >>739
なんか今の男女平等って根本的に間違ってるような気がする
結果、八百長になってるやん >>734
製作者の結論ありきじゃないか馬鹿
そんなAIに何の意味があるんだ? 【女性差別】「女子大卒は減点」アマゾンのAI採用、男性優遇判明で廃止に ・
なんかシュールよなw
ウチの大学は女子しか入れませーん→採用でウチの大学を減点するな!差別だ差別だ! >>740
学習機能があるから、どんなに公平を求めてもAIが男性を優遇してしまったらどうすんだろうね。 >>736
すでに研究からメソドロジーができていてそろそろ実用化されるとか噂が出てるくらいだからきっとすぐ世に出る >このAIツールは、アマゾンがそれまで10年間に渡って受け取ってきた履歴書のデータを元に訓練された。
これ入社の後の勤務評価と履歴書の情報を合わせて学習させてるはずだから、結果的に男性優遇になっても
問題ないと思うがなぁ。人間より公平なのは間違いないよ、外見美醜とか性格の相性のバイアスとかないから。 >>743
そうですお。
「黄金のスカート(英語:golden skirt)」と言う立派な専門用語があるくらいですから。
女性採用こそ八百長なのよ。 正しくデータ処理した結果が女性を低く評価しないAIシステムが
あったらそれこそ信用できないわ。
現在進行形で女性差別から女性が辞めざるを得ない状況が多く
リスクが強制的に高くなるのに、それを評価できないシステムなんて
意味がない。
その現在社会が抱えるリスクを加味して人が補正して対等になる程度で
ないと、女性差別は今現在ないということになるぞ。 >>741
でも平均すると女性のほうが仕事出来るよね
男性は二極化する >>744
マイクロソフトは製作者ではなく外部データがすぐにインプットになった
つまり使用者側がどんどんヒトラー賛辞したらそうなったら
制作側じゃない
アマゾンは制作側がまあバカだったんだな >>740
産休育休を単なる休業が多い費用対効果悪い人材と評価して女性と関連付けてマイナス考課してると思う
企業理念じゃなくて企業利益という視点で学習重ねてきたんじゃないの >>750
八百長じゃあ、やる気でねえわ
男はつらいよ >>749
AI利用者が問題ないと思うなら問題ない
アマゾンが問題あると結論しただけ だいたい、アマゾンなんて特殊な企業の例で男女云々言うことがおかしい。
そこら辺の企業の受付嬢の採用でもAI入れてみろよ。
女性ってだけで大幅加点、逆に男性差別だぞ。
世の中はバランス取れてる
適材適所
大谷が大相撲に行ったってそこまで高い評価は受けないだろ。そういうものだよ、世の中は AIって学習すると
いつも人間の意図しない差別をし始めるイメージがついた
以前もナチスは間違っていないとか言い出したAIいたよね >>752
2極化した男性のうち、ダメな方をすべて切り捨てればよい。
そしたら、お前の理屈であっても平均的に男性ばかり採用した方が絶対良くなる。
それが、一流企業というもの。 AIでも事実を言うことを許されないのか
もうやだまんこ >>149
性別項目があるならともかく
エントリーシートで性別を記述する必要ってあるか?
私は女なので・・・とか書いてたらそりゃ減点対象だと思うが だから世界中のデータを吸収させて勝手に判断させておけ >>753
使用者側からのインプットであろうと、結果的に製作者が気に入らなければ採用しない
採用されるAIは、製作者の意図に沿ったものになるだけ
それが偏り >>760
元データが隔たっているとそうなるみたいだな。
完全に自分で学習データを生成する場合(α碁など)は
むしろ癖のない出力するようになる。 >>760
いつもじゃない
それから「人間の意図しない」というのも間違い
「人間は自分を都合よく見る」から人間側がそういう自己弁護の表現をするだけ まあ、本当にアカンのはアマゾンでもAIでもなく女性団体だと思うけどな
八百長やれってか? >>9
無差別階級・オープントーナメントである共学出身者のほうが優秀 中立に見て男性優遇になったかも知れないじゃん?
それを男性優位だからと言って半々になるよう構造変えたり廃止したりしたら
いつまで立っても真のAIは完成しないと思うが? >>766
一文目が偏りのある文章
製作者の意図で採用するようになっているかどうかも条件の一つ 公平に出て来た結果は男性が優れているって事
スポーツで確認できるではないか >>771
これからのAIに必要なのは、忖度する能力だと思うの。 >>770
それを思い込みというバイアスで断言するのも思い込み >>769
人間が意図していたなら
何故、AIの判断がおかしい差別的だと多くの人間が思うの?
わざとAIにこのように仕組んむ理由なんてないよ >>775
それは誰にとってのAIなんだよという話 男女で分けるから差別になる
化粧してるやつは水商売か芸人しか向いてない、これは男女問わずだ
実業するには無駄なコストだし、表情を誤魔化すことを覚えて実力を磨かないから >>772
企業利益のための採用を目指す学習して社会通念や社会的合意にそぐわないAIになってしまったので廃止
企業理念を踏まえた採用を考えるAIを目指せばよい結果になった気がする だから男女別に定員を定めればいいじゃん。そしたら、真の平等。
完全に実力主義で男女入り混じって戦わせるのは、女性差別。 AIは人間の思考とか成長プロセスを理解したうえでの判断なんてできないわけで・・・
過去の傾向をパターン化し、より強化した結論を出すことだけしかできない。
そうなれば男性優位の結論出すのも当然だろうね。
この辺はとてつもなく高い壁、当分超えることはできないだろう >>774
多分そうなんだけど、女性様のエンジニアが欲しいから
AIの判断をなかったことにしたと思われ。まぁ多様性が
強みになるという意見もあるし、より深い知恵を
10年かそこらのAIはまだ持ってないかもしれない。
ただ基本的にはデータを集めれば集めるほど精度とか洞察力が
上がるはずなので、20年分、30年分のデータを入れたら
また違った結論が出るかもしらん。 >>779
何故、AIの判断がおかしい差別的だと多くの人間が思う
というのはどこにかいてあった? >>778
根拠を示さない結論は思い込み以外の何物でもないよ馬鹿 >>784
いや違う
今回アマゾンのデータがアマゾンの希望を表してなかったというだけ >>783
実力主義の何が女性差別なんだ?
その発想が男性差別だ >>789
Aiは子供
何を教えるかで結果が変わる >>786
じゃあ何も問題ないと思うのかね?
君は?
何も問題ないのに記事になるわけないだろ >>785
女性エンジニアがいたほうが、男性エンジニアのやる気が出る。
これが、一番女性エンジニアが欲しい理由だと思われ。
能力だけでAIに採用を任せると、こういう事情を無視して女性を落としまくるから、イクナイ! >>790
人の怒りを誘発するほど馬鹿な書き込みだということ >>793
ただ、アマゾンの採用係りの人間よりは履歴書データも、
勤務評定も把握してるはずで、人間よりは賢いかもしれない。
単にアマゾンが意見を採用しなかっただけで。 >>794
多くの人が思う
とデータに基づくような書き方だったが
君はどう思うのか
という話になるとそれは思い込みでの話になる
それでは話は進まない 女子大卒ですが
二度とamazonは使いませんから 出力したデータが望みどおりになるように入力データを忖度するとこから始めなきゃだめだよ〜w >>781
それはそうだが、化粧しない女はクズ
世の中に不要 >>788
過去10年のデータはさすがに選別してないでしょ
過去10年のリアルな実績をAIが分析したら男性優位だったので
あーこれヤバいと思って捨てた
何故ヤバいと思ったかの理由が、フェミがうるせーから、なのか、
担当者が本当に女性の活躍を予見していたにもかかわらずAIが拒否したから幻滅して捨てたのか、
その辺が書いてないからわからないが、多分前者でしょうね。
どちらにしろ今のAIには後者の可能性があったとしても、それを見出すロジックは持ってないだろうし、今後何十年も持てないと思う >>793
いや、現段階では、まだまだ成長出来ない子供以下だな
人間には判別出来ても、aiには、判別出来ないことがある時点で AIじゃなくても、できれば男性だけ取りたいと思うだろう
そうできれば諸々の面倒を考えなくて済むので楽だから Amazonの社是である地球上で最もお客様を大切にできる企業である こと を考えて人材モデル想定提案するなんて今のところAIにできないやね まずAIと言っているのは世界中で日本だけ。
この技術はML; 機械学習と呼ばれるもの。
MLは単純に過去のデータと導いた結果を結びつけるだけで
今回の話は女子大卒が採用されにくかたっと言うだけ。
その理由は過去の結果を分析しないとわからない。
AIと言って何か自律的なすごいものを想像するのは
英語ベースで情報を取っていない人特有の思考だね。 雌の方が右脳左脳をつなぐ脳梁が太く情報処理量が多い為、頭脳労働に向く傾向がある
対して雄は筋肉骨格の発達が良く肉体労働向きであり、また雄の出生率が高いのは過酷な環境下での損耗を前提にした生物の進化だろう
実績もろくにないAIで採用処理するのは数の多い肉体労働枠であるから同条件であるなら雄を選択するのは必定と考える >>797
AIは賢いわけじゃない
自動車が人間より疲れを知らず早く走れる道具であるのと同じで教えられたことを教えられたようにアウトプットするだけ
賢いという表現は限定的に使わないと誤解を招く >>802
ねえ、なんで「女性の活躍を予見」するのが人間の担当者ってことになってるの?
AIが予見しなかったのは何で? >>804
別職種でバランスよく女性も採用すればいいじゃん。 >>805
そういう漠然とした情報だと人間だって
正確に人を選ぶことはできないんじゃないかな?
例えばお客様ファーストを実践するため敢えて
社員に厳しく接するという場合もあるわけだし。
単に人当たりの良さとか、周囲の評価とは違う
尺度が必要そうだ。 >>799 こんな程度のことで低所得者のおまえが反応するのも愚かしければ、
もし倫理観を問うならばこれ以外にもいろいろあるのに自分に関係のあることにしか反応できないのも愚かしいし、
一言で言って身の程を知れと言うことだ。 てかね、演算結果は単なる演算結果でしかないのに
やべえ女性差別になってもたー、どーしよー
ってなる風潮が不気味というか
なんで、ここまで気にせんとアカンなってもーたん? >>798
思い込みではなく、人間なら誰でもおかしいと思うはずだがな
君がaiの様に欠落していたなら、それはつたわらない >>793
気に入った結論が出るまで子供に思想矯正している現実 >>809
このAmazonのAIが過去のデータの分析をしてるだけだろうから、
そのデータの中に女性が活躍するケースが少なかったんだろうね。
逆に言うと今のAIなんてその程度のことしかできない。
「こいつはこう育てれば成長するぞ〜」なんてことをAIができるわけもなく >>808
自動車も人間の意図を超える使い方をしないようライセンスがあるようにAIも意図しない動きを制御できるだけの利用者の能力がいるようになる
今は自動車創成期のように製作者が実験しながら乗ってるようなもので免許制度なんか考えられていなかった時代と同じ まあ、百歩譲って女性がこのニュースに憤るならまだわかる。
男のくせに、(別に恋人の女が女性差別で困っているとかいう事情があるわけでもなく)
このニュースに憤って何か吠えてる奴はただのアホでしかない。 >>808
いわゆる創造性はまだまだ(といっても囲碁などの
ゲームではすでに人間を凌駕してるが)だけども、
ルーチンワーク正確にこなす意味での賢さはAIは
人間超えてると思う。 これは誰を採用したら良い結果になるかって事だろう
当然履歴書データと採用した後の評価も加味している
履歴書だけで採用結果を決めるなんて不可能だからな
採用後の評価で減点付くような結果があっったということだろう >>817
いやそうとは限らない
そういうところまで教えていなかった
教える方も教えられる方もまだアイウエオの段階 気に入らないから手を加えるなら最初から選別プログラムでやりゃいいじゃん >>817
とは言ってもプログラミングと言う学問ができて
もう半世紀ぐらいにはなるだろ。女性技術者が
ボロボロ出てきても何も不思議ではないんだがなぁ。
やっぱ適性の問題があるんじゃないの。 お前ら、男性女性の話題だから楽しく和気あいあいとやってるけど、
これが黒人、白人といった人種差別の問題になったら世界的にタブーだから。
人工知能としては、確実にその判断を入れたほうがより正確で優秀なAIになるのにもかかわらず、
モラルの観点でその変数は絶対に入れられないんだぞ。 >>821
産休育休を単純に費用対効果が悪いって学習したらこうなる それは女性も登用して企業にプラスになると教育すれば自ずと改善されるだろ
都合が悪いことを差別と言い換えるのはよくない >>826
混血の問題もあるんじゃね。いちいちあなたは
黒人成分何%ですかと聞くわけにもいかんし。 >>820
それを賢いと表現するかどうかの違い
「ルーチンワークを正確にこなす」か「賢い」か ■ このスレッドは過去ログ倉庫に格納されています