【女性差別】「女子大卒は減点」アマゾンのAI採用、男性優遇判明で廃止に★2
■ このスレッドは過去ログ倉庫に格納されています
人工知能(AI)アルゴリズムの訓練に使われたデータが、男性の就職希望者を優遇する傾向を生んだ。
https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2018/10/10234907/25388747874b5c0b42ad7k-550x309.jpg
ロイター通信の報道によると、2014年、アマゾンは就職希望者に対して1つ星から5つ星でランク付けをする自動システムの開発に着手した。しかし、このシステムが技術職において男性志願者を優遇していることが分かり、2017年に廃止した。
このAIツールは、アマゾンがそれまで10年間に渡って受け取ってきた履歴書のデータを元に訓練された。テクノロジー産業は男性優位分野であるため、履歴書の大部分は男性から送られてきたものだった。
システムは意図せずして、男性志願者を女性志願者よりも優先して選ぶように訓練されていた。報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。アマゾンは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信を持てなくなったという。
私たちはAIを本質的にバイアスがないものとして扱うことはできない。バイアスのあるデータでシステムを訓練すれば、アルゴリズムもまたバイアスを含むことになる。もし、今回のような公平性を欠いたAI人材採用プログラムが導入前に明るみにならなければ、ビジネスに長年根付いている多様性の問題の数々は解決されず、むしろ固定化されてしまうだろう。
2018年10月11日 10時24分
アスキー
http://ascii.jp/elem/000/001/755/1755527/
他ソース
アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN
★1が立った時間 2018/10/11(木) 20:09:52.79
前スレ
https://asahi.5ch.net/test/read.cgi/newsplus/1539256192/ ただ統計とってるだけだからな。
相関関係と因果関係の切り分けのできないバカはこういう結果を導き出す。
合理的思考のできない人間がステレオタイプでものを見るのと同じこと。 >>1
妊娠考えたらリスクだろうからな。
AIが真理に基づいた妥当な判断しただけじゃね? テクノロジーに関しては男性優位ってわかりきったことだろw
AI正しい反応してるじゃんwww 恐らくは人間の恣意抽出が入ったんだろうけど。
AIが導き出した効率を求めた結果の上の不平等だったら優れたAIなんか必要じゃねえとかになるのか。 女はさ〜人によるけど、急に育休で抜けるやん。
それも、育児だけじゃなくて習い事するために何年もよくわからん勤務形態になるし
あれがどれだけ組織に影響与えることか そりゃ、途中で辞めやすい特性のやつは×つけるだろ。
あたりまえじゃん。
逆に、AIを活用して、女でも”途中で辞めない奴”、”仕事ができる奴”を採用すりゃいいんだよ。 能力で判断させるのが普通だと思うけど
男性の情報が多いことが
男性優遇になるとは思えない
Aiがそう判断したのはなんかしら理由があるんじゃないの >>1
あの・・・女子大の偏差値見てみ?
国内トップでもあれだぞ
そりゃ避けるようになる スレタイがおかしいぞ
自動で分析の結果
女は使えないって結論になったんだろ?w >>16
囲碁やら将棋だと
既に過去の棋譜に頼らず
ルールだけ覚えさせたAI同士で戦わせ続けて進化させてるらしいからな
機械が人間を参考にするのは良くないんじゃないかな こういう真実を言うためにAI使うんじゃないのかよw 各業界でAIが普及したらまんさんの失業者ボロボロ出てくるんだろうな
AI導入で駆逐される業種も事務職とかレジ打ちとかまんさん多いところばかりだし これさ差別じゃなくて区別だよね?仕事には適性があるのだから適性に応じて決まるのは当たり前だよね?これを何で差別に分類するんだろうね。男が向いてる仕事、女が向いてる仕事、それぞれの適性に応じて決まる。それだけの話だろ? せっかく若い女を採用しても
結婚したら寿退社するからな
正当な評価をすると
女よりも男を採用するのが会社にとってベストということになる たぶん皮膚が黒い人とか背が低い人にも低い点数つけてる 連続した細かい作業は女性ばかりの職場もある
性差としか言いようがない
AIがどういう学習をしたのかわからないが
性差なら仕方ない >>30
人を幸せにさせるという目的なら
夫婦揃って働かせる選択肢は無いだろうしな 悪意が無かったとすれば、それは差別ではなく、区別なのでは やっぱり男と女は役割り分担をするべきなんだと思うよ。何でも同じという訳には行かないよ。 >>34
出産育児がなくてもお察しレベルなんでしょ
ただ入学や入社試験では無駄に頑張って入ることがゴールになってしまうからタチ悪かっただけで 実際はもっととんでもない差別してたんだろう
出身とか苗字とか
言えないけど察してくれっていってるのでは 今一番イケてるIT企業はAMDでCEOがリサ・スーって女性なんだよなあ
MITの博士だけど 女なんて採用してもすぐ留学したいとか言いだして教育損だからな
自分大好き日本女 結局AIでも入社後の実績とかも入れてるだろうし
産休育休ある社員よりも無い社員を選んだだけだろね 中国に駄目だししたりの件もだけど
間違ってないのに廃止させるなら
何の為にAIの研究してるのよ >>46
きちんとやってけば
女性優位な職種、男性優位な職種、どちらにも差がない職種と判明したはずだけどね
人がそれを許さないとはな そりゃ客観的に判断させたらそうなるわ
全ての女を全ての男と同列に扱うのは感情的なもの以外ないんだから 男女平等って女性虐待だと思う
女は妊娠しなくても生理もある
身体的ハンデを背負ってるのに男同じように働けとか狂ってる
男も女も誰も幸せにならないのが仕事の男女平等だよ >>1
> バイアスのあるデータでシステムを訓練すれば、アルゴリズムもまたバイアスを含むことになる。
誰がどういう基準で 「バイアス」 だと判断するんだ?
結局、人間の判断じゃないか
. 履歴書の人間が将来どのように利益を出したか学ばせたんだろ
そりゃ血も涙もない機械は男性しか選ばんよ 女性だけの大学なら男性排除してるから競争率低いだろ
減点されて当然 >>55
社会の労働力を消費する企業が
努力なしにリソースを倍にする為の方便が
男女平等だからね >>1
「これまでの『不平等な機会』『不平等な結果』のデータをもとに構築する」しかないAIに
『機会の平等』を地力で考えろってのは無理やわな。
AIに「理念」的なものって持たせられるの?判断基準として。 バカサヨ 「私たちの思想信条に合致しないAIは、絶対に認めません!」 女子大って大学ランク見てもたいしたことないし
大学から内で体力のある男と競ってないし
評価低いだろ
AIが正しいだろ 化粧品会社なんて女性だらけだからな
男女同じ割合にしてもうまく行く訳ないし AI
「仕事の能率、効率を考えたら男性の方が良いです」
女
「女性差別だ」
AI
「えええ・・・」 >>61
社会保障や福利厚生とかに係数つけたらなんとかなるんじゃね
そうなると
出産育児がセットになる女性が
社会に出る上ではマイナス査定されると思うが 産業にもよりそうだなー
どっかに女性優遇あるっしょ AIがどういうものなのかまったくわかってないんだろうな
要は経験則だから、女取らないのはそういう事だよ? AIの判断に人間が横やり入れたらAIの意味ないじゃん AIが中立的に判断しての事なら仕方ないだろ
AIが男性優遇するから廃止するわって本末転倒にも程があるぞ 妊娠出産で邪魔になる女さんばっかだし男の稼ぎだけ女の三倍くらいにしてもらって女さんには家庭に引きこもっててほしい >>3
どうしてそうなるかはわからない。
AIの吐き出す人工ニューロンを解析する事はまず不可能。
人間の脳のニューロンを見て、思考や記憶の内容を特定する作業に似ている。 企業にとっては数年で結婚退職する女性より長く奴隷になる男性のほうがいいのは当然 コンピュータ関連って早期から女性に活躍の場があった業界なんだけどな
COBOLの開発者も女性だし
決して数的に優勢にはならない事の原因は、そもそもこの分野を目指す女性が男ほど多くないことではないか? 採用の手続きを人工知能にやらせればいいわけよ。
人がやると個人的感情混ざって正しい判断できない。
人工知能を導入するべきだよ、こういうの。
特に大量に応募者相手にする、非正規とかバイトとか人工知能でいい バカサヨ 「私たちの思想信条に合致するまで何度でもやり直します。 私たちの思い通りにならなければ、偏ったデータを入力してAIを教育します。」 何回やりなおしても、
AIは女を減点する傾向があって、
女性差別が止まらなかったから、
アマゾンはAIの開発をやめた
AIが判断してるんだから、
やっぱり女は基本、バカなんだよ 突然産休とか寿退社とかする人材なんて評価低くて当たり前やん 女としゃべってて、
本当に、
「こいつ、知恵遅れじゃねーのか」って思う女が、
ゴロゴロいるからな
日本語すらまともに使うねーし 女子大から優秀な人材を輩出しまくればAIの評価も変わるともうよ >>79
そういうデータも含めた上だろうが
将棋だったかで
ある程度、データとって勝ち筋の傾向が判明した後は
人間の過去データは足枷になるんだと
流行り廃りで合理的な手を打たないことがしばしばで
学習の妨げになるんだとさ
で
勝ち筋を覚えさせたAI同士で対戦させた方が強くなるし
そのAIを鍛えるのもAIがいいんだって 本当のことだからな、これ
津田塾や東女も日東駒専レベルだから >>1
★☆★『管理職での女性登用優遇処置は企業経営を弱体化させる』★☆★
《女性登用先進国ノルウェーが払った代償 業績悪化&上場廃止企業続出、モラル低下横行》
ノルウェーは首相と財務相、経済界で重要な役職の雇用主組合(経団連に相当)と労働組合連合会トップも女性。
03年の会社法改正により、上場企業の取締役会に於る女性の割合を40%以上とするのが義務づけられた事が、
女性登用が企業に広がる契機となり、女性登用先進国として知られている。
だが、女性登用の成功例として取り上げられている一方、副作用の方が大きかったという指摘もされている。
米・南カリフォルニア大学のケネス・アハーン助教と米ミシガン大学のエイミー・ディットマー準教授は、
ノルウェーの40%割当制について実証分析を行った。対象は01〜09年の上場企業248社。
まず、03年に40%割当制の導入が決定すると、対象企業の株価は“大幅に下落”し、
その後、数年間で女性役員比率が10%増加したことで、時価総額は12.4%下落したという。
負債等も大きくなり、営業成績にも“悪化”が見られたという。
さらに、同制度の対象となるのを避けるため、09年の上場企業数は、01年から約3割減った。
つまり、非上場企業に転換した会社が約3割増えたという。
企業のモラルハザード(経営倫理の欠如)も招いた。
確かに、上場企業の取締役会は女性役員が40.7%を占めているが、
数合わせのために、女性社外取締役を増加させる事態が横行している。
実際に経営に携わる女性役員は6.4%にすぎない。
日本政府も女性登用を重要政策として掲げるが、具体的数値目標を掲げる上で、
経済全体にどの様な影響を与えるか、正負両面から十分な議論が必要といえよう。
http://biz-journal.jp/2014/09/post_5954.html (lr029)
.
>>88
大体、そういうときは
お互いにバカなんじゃねぇかってなってる >>80
入力値でしか判断できないから、嘘の経歴やや誇大な表現が混ざっていてもそのまんま受け取ってしまう
それらを見破れるレベルになるまでは、あくまで人間の補助的な位置付けで使わんと嘘つきが優遇されるぞ データの傾向を出しているだけだからな
こんなんAIじゃない AIは女子大卒かどうかなんて判断してないだろう。
個人の資質、成績から判断したら、たまたま結果として女子大卒が少なかっただけ。
機会の段階で平等に審査したら、結果に不平等が出ただけ。
機会の平等は、結果が平等でないと不服な人には不都合となる。 そりゃ平均したら女より男のが体力的に優れてるだろ
AIの判断は至極自然 >>96
どんなんがAIなんだ?
本物のAIとは? >>99
アップルシードのガイアとか
2001年宇宙の旅のHALとか
ワン・ゼロのマニアックとかレベル
ドラえもんでもいいよ AIが正しいんだろ
都合が悪い事捻じ曲げてんじゃねーよ >>3
ディープラーニングは人間を超える完璧な判断をするわけではなくて、
人間(の判断)というお手本を見習ってる存在に過ぎない。 アメリカで防犯カメラをAIで解析させると肌が黒い奴は犯罪傾向とかになるらしいな。
AIは差別や偏見はしない、あくまで純粋な数学で物事を判断する。
まあつまりそういうことなんだろうな 顔や性格まで判断して結婚、妊娠、出産しないような女選んだら更にホンモノだな。 >>96
データの傾向を元に判断するのがAIじゃねーの? マーンもクロンボも差別とか抜きで判断しても結局ゴネるっていうね
だから能力が低いとか犯罪者多いとか自分達で証明しちゃってるっていう ■ このスレッドは過去ログ倉庫に格納されています