【機械は正直】AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面(AERA) ★2
■ このスレッドは過去ログ倉庫に格納されています
◆ AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面
人工知能(AI)による採用審査など、日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。
IT5社の人工知能(AI)が男性を女性に間違える割合はコンマ以下。
一方、女性を男性に間違える割合は最大で2割近い──。
マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らは今年1月28日、ハワイ・ホノルルで開かれていた米国人工知能学会と米国計算機学会の会議で、AIが人の顔の画像から性別などの特徴を識別する「顔認識」について、IT各社の機能を比較した結果を発表した。
比較したのは、IBM、マイクロソフト、アマゾン、さらに米国のベンチャー「カイロス」と中国のサービス「フェイス++」の5社。
その結果には、共通する傾向があった。
いずれも男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。
最大のアマゾンでは19%。5人に1人の割合で女性を男性と判定するということだ。
つまり、いずれも女性に不利な傾向を示していたのだ。
さらにアマゾンでは、別の観点からもAIによる女性の扱いが問題となっていた。
AIを使った人材採用システムをアマゾンが開発しようとしたが、AIが「女性嫌い」で使い物にならず、断念した──ロイターが2018年10月にそう報じている。
アマゾンは14年に専任チームを立ち上げ、AIによって履歴書を審査するためのシステム開発に取り組み始めた。
AIが応募者の履歴書の内容を評価し、5点満点でランク付けする、という仕組みだった。
だが不具合が明らかになる。ソフトウェア開発などの技術職で、女性に対しての評価が低くなるという偏りが生じていたのだ。
原因は、AIが学習したデータにあった。
AIは、あらかじめデータを使って学び、その中からモデルとなる特徴を見つけ出す。
このモデルに基づいて新しいデータの仕分けなどの作業を行う。
だから、学習するデータに問題があれば、AIから出てくる判定結果にも問題が生じる。
●学習データに基づくAI、正確で中立だとは限らない
システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。
問題は、その大半が男性からのものだったということだ。そして、採用された技術職も大半が男性だ。
するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。
その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
女子大卒業という履歴書で評価を下げられたケースもあったという。
「女性」に関連する言葉での差別が行われないよう、システムに修正を加えたが、そのほかの差別が生じる可能性を否定できず、アマゾンは17年初めに開発を断念。専任チームは解散した。
AIに期待されるのは、正確さや中立性、そして高速で大量のデータ処理をすることだ。
ただ、AIが正確で中立だとは限らない。
社会に差別や偏見があれば、AIもデータを通じて差別や偏見を学ぶ。
しかも単に反復するだけでなく、高速な自動処理によって、それを増幅させてしまう危険性もある。
平成も終わろうといういま、なお「女性嫌い」の価値観が、AIから吐き出されるかもしれないのだ。
アマゾンでは開発を断念したが、AIを使った採用システムは様々な企業で取り入れられ、日本でも導入が始まっている。
ソフトバンクは17年5月から、新卒採用選考のエントリーシート評価に、IBMのAI「ワトソン」を導入した。
「ワトソン」の自然言語処理の機能を使い、エントリーシートの内容を判定。
合格基準を満たした項目は選考通過とし、その他の項目は人間の人事担当者が確認して最終判断を行う。
「応募者をより客観的に、また適正に評価する」としている。
「ワトソン」は11年、米国の人気クイズ番組で人間のクイズ王者2人に圧勝したことで知られる。
導入することで、書類評価にかかる時間を75%削減し、面接にあてるという。
※続きは下記のソースでご覧ください
AERA 2019.2.20 17:00
https://dot.asahi.com/aera/2019021900059.html?page=1
■前スレ(1が立った日時:2019/02/21(木) 00:30:08.08)
https://asahi.5ch.net/test/read.cgi/newsplus/1550676608/ . 女性の感情はシステム化出来ないからね
社会性かな? もはや都合の悪いことは修正ばかりでAIである必要がなくなってる そりゃ学習データにバイアスが入ってるなら結果にバイアスも入るってものすごく当たり前の話やん
バイアスをいかに排除するかがAIの力の見せ所なのに >>1
なにこの先に結論ありきの強引な論理展開は?
AIが正しい判断をしたという最も素直な可能性をなぜ考えようとしないんですかね 女性であることが有利な職場や女性の方が有意に採用が多いならば女性有利になるだけでしょ?
学習するデータの偏りがそのまま出てるだけだろ結局のところ AIは与えられた学習データを疑うほど賢くないので、偏った学習をしたら偏った判断をするのは当たり前。
AERAや朝日新聞の記事を鵜呑みにする馬鹿がパヨクになるのと一緒。 困ったことに統計は嘘をつかない
女性に有利な条件で再度AIに仕分けさせても、少なくとも資本主義社会において男性優位の結果に落ち着くと思われます
なぜなら女性自身が職場の女性を疎ましく思うケースが多いので >>1
ランダムサンプリングにあらずんば学習データにあらずだ け 1990年 変態イシバシゲルは 土人国へ渡り モランボンに変態チョメチョメプレイしたが逆にハメられ 売国朝鮮工作議員と転生したイシバシゲル物語(実話)
外患誘致罪にて処刑リスト確定されたのではR
イシバ シゲル マンセー♪( ´θ`)ノ AIがラーニングのサンプルから「性差」を冷静に判断した結果ってだけなんだろうな
こういう場合には男性ならこうなるが女性だとこうなる、という状況を数値化した時に
差が出てきたのを
納得できない人が「AIの女性嫌い」とか言ってるだけで
多分、AIの通りに選ばれた人材とそうじゃない人材では企業にとってそれなりの結果になりそうな気がする
使い物にならないのはどちらですか?って話になりそうなニュースだな いやね
そらそうプログランしたらそうなるだろそうならない方が恐ろしい
ってかただのバグ >>17
肉体労働を除けば別に女性の能力は男性に比べて低くない
ただ、性質の問題なんでしょうね
限りなく合理性を求めようとした結果、現代社会の働き方には男性の性質のが合致してるってだけでしょう AIっていう論理的思考の塊と女さんとの考え方の違いが明白にでてるとかそんな感じかと思ったら何か違った ファックザシステム
変わってくれればいいけどね
履歴書だけで判断するのはどうかと思ってきたよ
でも女が男女平等と言うのは違うと思うけど >>9
…だな
AIに機械学習させる過去の採用データそのものを再現しているに過ぎない。 >>1
同質の存在じゃないのに平等に扱え
ってんだからAIからすれば逆に???ってなってるんだろうな
差が有るのに平等に扱おうとするのは女性優遇をシステムに組み込もうとしてる、だから採用基準で男性が選ばれやすいな事こそが中立公正なんだよ
男には生理も出産も無いんだから でこの場合、性差を排除するために同等程度の割合になるように入れる補正値がリアルだとアファーマティブアクションだが、ポリコレ厨バイアスすら否定しちゃうからどうしようもない 単純に労働力と考えた場合、男性の方が適した職が多いからでは。
AIが平等な視点で評価した結果だと思う。 政治的に女性採用したいなら男女別に採用枠を分ければいい話 あらゆる統計的なバイアスをひていしたら
そもそも統計的な判断なんて出来ないんじゃね >>28
そもそもAIは男性や女性と分けるより大きな区分で「人」として分けてます
差別として捉えてるのは人間なんであって、結果は中立性のあるものかと
このケースではあえて男性が多い例を示しているようですが、逆に女性が多いケースでも同様な結果になったのかと
だから、やらなくなった それが中立の結果だという事か。
自惚れやすい環境だから仕方ない分だと云うのは解りきってる事でしょ。
まぁ、どうしてもサイコパスに近くなるしさ。 女は都合のいいようにダブルスタンダード貫くからAIが困ってんぞ! >>25
綺麗事言ってんじゃねーぞブス
養って貰おうとか何様だ
割り勘だろがブス共
って言うのか本音笑 男女の賃金格差の原因を調べたアメリカの研究で
実は男女の賃金格差は差別じゃなくて
嫌な仕事や残業を男の方が快く引き受ける場合が多いから
男性の賃金が高くなると分かったものがあるんだよな
合理的に正しい理由のある偏見というのも世の中にはある >>30
別にAIにデータ仕分けさせなくても明らかな事ではありますね
しかしこういったデータ仕分けは人間では発見できなかった項目同士の意外な共通点が見つかる事が醍醐味なのですが、
推測するにどの企業が行った調査でも女性労働者にとって絶望的な結果を生み出しすぎたのかもしれません >>23
それを能力が低い、という実に言いやすい表現にしてしまっているのが現状なんでしょうかね まずは障害者を健常者と同じ割合採用するシステム作れば男女差くらい簡単に解決できる >>23
人間の集中力は大きく体力に依存してるっていう研究もあるからな
男女の体力差が自明なら
デスクワークの集中力も体力差によって開くというな
知的能力が同じなら労働時間が長い方が生産性は上がるだろうし >>41
その可能性は職種によってはあるのですが、特定職種に絞って統計を出すのはもってのほかなので、職種別にも分けて統計をちゃんと出した可能性のが高いです
それでどの業種でもどうにもならない結果になったために、こういった差別論の記事に誤魔化したのかと 感情が論理より優先しがちな女性が多いから、論理の塊みたいなAIが困ってるのけ?w 「女性の写真を男性と誤認する」→女性差別
「黒人の写真をゴリラと誤認する」→黒人差別
女性が男性と見間違えられるのは屈辱的ですか、男性はゴリラですか。 男性お断りや男性排除は批判されないのに、
なぜ(女性嫌い)はダメなのだろうか。 >>43
そういう事なのでしょうね
そもそも性質が違うものを同じ土俵で戦わせること自体が間違いなのかと
ポケモンと妖怪ウォッチは似て非なるものです
これを機に差別という言葉そのものの捉え方を変える人が増えることを望みます 男女の脳に器質的な差は無い事が分かってるのに
上位層の学力において明らかな男女の差があるのは
大型哺乳類では雄の方が選別される性なのでバリエーションが広く生まれ
能力の尖った個体が雌より多くなるってのも生物的には常識だし >>1
これは当たり前w
男は女が好きなんじゃない
女体が好きなだけ >>45
弱いAIと感情の相性は絶望的なまでに悪いです
女性は味方になってくれる強いAIの登場を期待しましょう AIの壁はここ
AIがデータに基づく事実を出力しても
人間は自分に不都合な事実を認めず、隠蔽する
結果的に事実と乖離した行動をして非効率に走る データから性別を外して、履歴書にも性別を書かせなければいいんじゃないか。 >>49
学習型AIの元になってるのはバイオの世界の考え方ですからね!
AIの発展を促したいならプログラミングを学ぶよりも生物学や量子力学を学べという人もいるそうですし 現実で女の方が仕事できるんなら今もっと一杯いるでしょ
言ってる事が自己中過ぎる
フカンで見れないから駄目なんだよ
すぐ切れて泣くし
それで男女平等とは、、
どー言う事でしょうか 違うだろ、AIが中立で、それを評価する側の人間(女)に問題があるんだろ >「女性」という言葉が入っていると評価を下げた
なかなか賢いじゃないか
女性という属性を切り抜いた活動をしてるようなやつは
ダブスタで、針小棒大で、情緒的で駄目だわ AIに嫌われるのは女
人間から嫌われてるのがお前ら高齢童貞 >>57
女性には女性の優位な点がありますし、平均点な男性よりも労働能力的に遥かに優秀な女性も数多くいます
ただ、群れとしての社会で生産性を求めるなら男性労働者の方が適してるケースが多い、ただそれだけのことです
実にAIらしい結果だと思います >>58
男性 (だろうな)
女性 結果が均等にならないのはオカシイ
ってね
性別差がある生物だっていい加減に認めろよ、と >>60
別に嫌っているわけじゃありません
この種のAIに感情なんてないので
何かを叩きたい時に、カナヅチと豆腐どっちが向いてるかと判断してるに過ぎません >>53
見た目もジャッジするんだから駄目なんじゃない? 5chは既に在日チョンに買収されているのをご存知ですか?
在日チョンの5ch運営が規制してリンク貼れなくなってしまったので、
「2chの譲渡先、5chの代理人弁護士は通名のしばき隊員」で検索してみてください
そして、在日チョンのバックに居るのは売国政党の立憲民主党です
在日チョンが5chを買収して、売国左翼や在日チョンにとって有利な世論誘導しようと企んでいます
5chのあらゆる板でジャップがどうのとかほざく、日本人卑下する奴とか、「アベは売国奴だー アベは統一協会だー」みたいな頓珍漢な政権批判するレスが異様に増えたと思いませんか?
売国政党の立憲民主党の支持母体の一つは在日韓国人組織の民団です
そいつらが5chを買収した在日チョンの背後にいます。↓民団と連動して動いている売国政党の立憲民主
在日チョンの帰化議員がワンサカいる売国政党の立憲民主党
↓
「竹島は日本の領土ですよね?」立民・白真勲(ハク・シンクン)議員を再直撃! 徴用工判決には「コメントできない」連発…
在日韓国人組織の民団は立憲民主党の支持母体の一つ。売国政党の立憲民主に絶対に気を許してはならない
↓
在日本大韓民国民団の中央本部新役員と意見交換 - 立憲民主党
安倍さんより以前は日本の保守派政治家はみんな親韓派だった
安倍さんが政界の保守派を改革してくれたんだよ
だからチョンは安倍さんを引きずり降ろそうと必死。
5chの運営がチョンに買収されていると、とっくにバレている以上、完全記者制というシステム止めるべき
チョンに買収されている運営が全てのスレ立てをコントロールするとかありえない
.
.
.
53+00620.46+9+63+0752+7 パヨパヨは結局共産主義の経済破綻を最後迄認めなかったもの、何時も形而上を逃げ回るのが人生。 人間の人事だと若い女性に甘いからな公平に判断すればとても採用レベルではなかったってだけ 途中で退社してしまう率は男の倍
管理職になる率は男の半分以下…
っていうデータを読ませれば、そりゃ
「女は男よりもレベルが低い」って学習しちゃうでしょう…
「今後は過去のような恣意的な人事評価が起こらないように」ってAIを導入してるのに
その判定の元になるのが過去の恣意的な評価じゃ、同じ事にしかならんよね AIはまーん()が嫌い AIはおまいらの友達じゃん >>73 たぶんそんな簡単に文章化出来る事は思考出来るでしょ。 >>55
YOLO作った人は今犬の行動研究してるしな >>65
世のフェミに言ってよ
カナヅチの仕事はカナヅチにまかせろ、豆腐がしゃしゃり出てカナヅチにフォローを求めるな、って
同性が発言してくれないとどうにもならんよ >>73
管理職のキャリアが少ないのはともかく
離職率が高いというデータがあるなら
考慮されるべき要素のひとつじゃないのか 囲碁将棋ポーカー麻雀
料理と何の競技やらせても
女はザコじゃん >>73
俺なんてブラックだなと思ったら速攻で辞めてるけどね笑
だってドMでも無いし
夜中まで働いて何が楽しい?
社畜はゴメンだね >>73
なら一体何のデータを読み込ませればいいんでしょう?
AIはしっかり女性がいる事での職場での士気の上昇などの結果も踏まえているはずです
データ無しでの「女は職場にいらない」という言葉は単なる妄言です
しかし、その妄言を裏付けるデータが今回の結果です
今回の記事では複数社で同じような傾向が出たとされてますし、その中には女性が多い部門も存在していたはずです
しかし、その結果はこうなってしまった >>77
フェミニズムも最初は気高い思想でした
しかし次の世代ではもう腐りかけてます
差別と名の付くコンテンツは非常に発酵性が高いようです 学力や仕事においては、頂点も男だけど底辺もまた男だけどな。男の底辺は本当にひどい。 データは過去10年の履歴書だけ
その後の出世や離職をデータに入れてるとは書いてない
つまり、AIに履歴書見せて合否を計算させて
実際の採用不採用と合致するかどうかで採点し
上位の得点を取ったパラメータが生き残る、って学習方法だろ
そりゃ、人間の判断に近いAIが出来上がるに決まってるわ >>82
大体そういう会社って皆んな半分鬱みたいな顔してるぞー
ドヨーンみたいな雰囲気 まぁ、女性は感情で動く生き物と言われるぐらいなのに、AIは男性より感情で動かないものだし。 AIに人間の男女を顔だけで判断させるのが間違いだろ、人間が犬猫や魚のオスメスを顔で判断できないのと同じ
そういうデータを入力するだけの手間を惜しむなよ >>1
結婚、出産、
どう考えても仕事時間は
男>>>>>>>>>>>女
になる。お化粧時間や生理時間、病気や病状など入れるとさらに男有利
パニック症になる確立
女>>>>>>>>>>男 >>55
虫がどれだけ単純なプログラムであの複雑な行動をしているのかは興味深い >>1
>その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
どんな組み方したの 公平中立に評価したら
女性が男性に劣っていた
それだけのこと
女性を男性に間違えるのが多いのは
女性らしさを捨てた女性が多いから
とは考えないのか? >>91 女とチョンを怒らすのは簡単、本当の事を言うだけ。 階層:
賢い女
賢い男
AI
馬鹿な男
馬鹿な女 ←誰にも嫌われる まぁ犯罪率は男の方が圧倒的に高いからそこだけは真っ当に評価してあげてほしい >>93
まだAIの仕組みがわかってないね
「そう組み上がってしまう」のよ
なんの関わりもなさそうなパラメータを関連させるって機能はAIの機能の一つ
女=チョンはガチ
普通にこんな解出るのがAI 実際女性社員も男性上司や男性同僚との方が仕事し易いって言うだろ。
自分だけ特別扱いしてもらいたがる女が一定数居る。 ■ このスレッドは過去ログ倉庫に格納されています