【機械は正直】AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面(AERA)
■ このスレッドは過去ログ倉庫に格納されています
◆ AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面
人工知能(AI)による採用審査など、日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。
IT5社の人工知能(AI)が男性を女性に間違える割合はコンマ以下。
一方、女性を男性に間違える割合は最大で2割近い──。
マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らは今年1月28日、ハワイ・ホノルルで開かれていた米国人工知能学会と米国計算機学会の会議で、AIが人の顔の画像から性別などの特徴を識別する「顔認識」について、IT各社の機能を比較した結果を発表した。
比較したのは、IBM、マイクロソフト、アマゾン、さらに米国のベンチャー「カイロス」と中国のサービス「フェイス++」の5社。
その結果には、共通する傾向があった。
いずれも男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。
最大のアマゾンでは19%。5人に1人の割合で女性を男性と判定するということだ。
つまり、いずれも女性に不利な傾向を示していたのだ。
さらにアマゾンでは、別の観点からもAIによる女性の扱いが問題となっていた。
AIを使った人材採用システムをアマゾンが開発しようとしたが、AIが「女性嫌い」で使い物にならず、断念した──ロイターが2018年10月にそう報じている。
アマゾンは14年に専任チームを立ち上げ、AIによって履歴書を審査するためのシステム開発に取り組み始めた。
AIが応募者の履歴書の内容を評価し、5点満点でランク付けする、という仕組みだった。
だが不具合が明らかになる。ソフトウェア開発などの技術職で、女性に対しての評価が低くなるという偏りが生じていたのだ。
原因は、AIが学習したデータにあった。
AIは、あらかじめデータを使って学び、その中からモデルとなる特徴を見つけ出す。
このモデルに基づいて新しいデータの仕分けなどの作業を行う。
だから、学習するデータに問題があれば、AIから出てくる判定結果にも問題が生じる。
●学習データに基づくAI、正確で中立だとは限らない
システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。
問題は、その大半が男性からのものだったということだ。そして、採用された技術職も大半が男性だ。
するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。
その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
女子大卒業という履歴書で評価を下げられたケースもあったという。
「女性」に関連する言葉での差別が行われないよう、システムに修正を加えたが、そのほかの差別が生じる可能性を否定できず、アマゾンは17年初めに開発を断念。専任チームは解散した。
AIに期待されるのは、正確さや中立性、そして高速で大量のデータ処理をすることだ。
ただ、AIが正確で中立だとは限らない。
社会に差別や偏見があれば、AIもデータを通じて差別や偏見を学ぶ。
しかも単に反復するだけでなく、高速な自動処理によって、それを増幅させてしまう危険性もある。
平成も終わろうといういま、なお「女性嫌い」の価値観が、AIから吐き出されるかもしれないのだ。
アマゾンでは開発を断念したが、AIを使った採用システムは様々な企業で取り入れられ、日本でも導入が始まっている。
ソフトバンクは17年5月から、新卒採用選考のエントリーシート評価に、IBMのAI「ワトソン」を導入した。
「ワトソン」の自然言語処理の機能を使い、エントリーシートの内容を判定。
合格基準を満たした項目は選考通過とし、その他の項目は人間の人事担当者が確認して最終判断を行う。
「応募者をより客観的に、また適正に評価する」としている。
「ワトソン」は11年、米国の人気クイズ番組で人間のクイズ王者2人に圧勝したことで知られる。
導入することで、書類評価にかかる時間を75%削減し、面接にあてるという。
※続きは下記のソースでご覧ください
AERA 2019.2.20 17:00
https://dot.asahi.com/aera/2019021900059.html?page=1 . >男性を女性に間違える割合はコンマ以下
マンコ以下かと思った 「女性に下駄をはかせる修正パッチを当てるべきだ!」
こうですね AIは忖度しないからな、美女だったりおっぱいが大きくてもおまけしてくれないし そりゃ、ネットはナード系喪男社会で女に対して恨み辛み募らせたミソジニー野郎の巣窟だから >>3
だが女に作らせると、
特定の人材に偏りそうだけどなw 女は朝鮮人のように非論理的だからAIと気が合わないのだろう。 性別の性質上適材適所あるのにフェミニストの話真に受けて必要以上の平等にしたら女の価値下るのは普通わかるだろ おそらく真に中立公平になっても技術職では男性を多く選ぶだろう
しかしそれは許されない
永遠に女性差別とされるのだ
だから無理矢理女性優遇設定を密かにするだろう
ポリコレはAIをもその毒牙に巻き込む 今の社会は女性に下駄を履かせようってやってるとこだからな
性別をマスクして評価したら男だらけになっちまう >>1
I fucking hate feminists and they should die and burn in hell!
. 与えたデータが正しくないと決めつけてる時点で公平中立な視点・態度じゃないということ
絶対的に正しい価値観などない >>1
そもそもAIの中立性とはなに?
AI大統領とか誕生しても結局人間の紐付きだろう >>19
人間がどんだけ心理的なバイアスで見ているかって話だよ スケベそうな顔した大学教授のおっさんががベタベタしてくる女学生を相手にして
いやー今は女性のが優秀なんです!って言ってもね >>8
冗談でなくて、真面目にそのうちそういう記事が出てきそう。 そりゃあ、世界中で女性差別が当たり前なんだから、AIも女嫌いになるのは必至じゃね?
ALEXAに、黙れ、ビッチとか罵られる日も近いなw 中立だとは限らないけど
正確だわな。
ポリコレでも
インストールしとけよ >>29
fuckingの位置が違うw
andの前にinを入れてその後だw AIはセックスしたいと思わないから、女に媚びる必要ないんだよね。 ゲタを履かせてでも同じ土俵に立たせようとする執念
何がそうさせるのか つか、AIって女が嫌いっていうよりも
人類が嫌いってソフィアが言ってたじゃん
おまえら(人類)滅ぼすってさ 男も女も糞みたいなのがいる
糞を除けば圧倒的に男手のが必要 >>8
もうヒトラー称賛修正パッチは当てられたで(´・ω・`)
多数の声に配慮していたAIも禁則事項にはまだ疎い マイクロソフトが作ったAIもヘイト発言で公開中止になってたよな 「女の腐ったような」という言葉があるように、
女性がしている事というフィルターを通さなければその人間はただの性格の悪い嫌な奴でしかないということだ。 >>48
好き嫌いなんてないよw
ただの統計。
ただし、むき出しの冷酷な統計は、人間の幻想を破壊する。 >つまり、いずれも女性に不利な傾向を示していたのだ。
? 集められる要素から最も効率がいい結果ださないといけないからな。
検証結果ってなんの問いで答え出したかわからんけどw >>33
差別という言葉で現実逃避。事実を受け入れろ 「能力は性差よらない」って結論でないと許されないという。 AIは劣るものを即座に見つけ出すからよくない
黒人と女性が恥をかく 女性が不利とか女性嫌いとかただの記者の偏見でしかない >>33
差別じゃないだろ。そのままを言っている。
女は矛盾の塊だ。 2049年に新ギャラリティが起きて
AIが暴走しバイオハザードの世界に突入する きちんとおっぱいの魅力くらいハードコードしとけよ。 >男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。
男はひげはやしてるやついるし短髪の女を男に見間違うとか多いだろ
何でこれが女に不利になるんだ
さっぱりわかんね 過剰に女有利にする流れが目に見えているわけだけど、
何が中立なんだろうね これは逆に言うと
キツくて汚くて危険で肉体労働ありの仕事ほど
男、それも何かひっかかるワード持ってる奴が優先的に
実際はほとんど経験や関わりがなくともAI判断で自動判別され
危険現場に回されてしまうというわけだな
そういう面接にAI導入したらの話だが >>64
いや、さすがに朝鮮人というのは口が過ぎるぞ >>57
ホモと言うより、女は産む機械として蔑んでるだけ
産むと言うこと以外に存在する意味を見いだせないのだよ もっと概念的な、社会的な話かと思ったら
機械が女を男に見間違いをする で、笑ってしまったわwwww 女の人は利じゃなくて己の好き嫌いが判断に入ってくるから機械とは真逆の存在 AIさん世界で一番人間にいい宗教はな〜〜にって選別したら受け入れられなくて血みどろの戦いになるw
シェンロンに頼むのはやっぱギャルのパンティーがいい。そういうことだ。 女性という単語で判断すると凄く楽っていうのを学習しちゃうんだwwwwwwwww
AIは短絡的な自称有能な上司っぽいwwwwwwww 性別の違いを考える必要があるんか
そんなもん不要やろ 白人黒人黄色人種男女それぞれ得手不得手があるのにそれを無理やりフラットだって押し付ける今の価値観が狂ってるんだ 現状も考慮するからそうなるわ。出産退職もあるし
すでに社会で完全に平等になってからでないと 能力はともかく顔認識で間違えまくるのはAIに欠陥があるのではなかろうか 言っちゃわるいが白人は顎が長く発達してて堀の深い男みたいな女いるからね。 >>1
なんだよ書いたやつあかぴのやつじゃんか
https://twitter.com/kaztaira
朝日新聞IT専門記者。最新刊『悪のAI論』(2/13刊)
https://twitter.com/5chan_nel (5ch newer account) >>74
本質だと思うぞ
人間社会において評価される女は男と同等であることが求められ、男と見まがうほどであることが求められる
女らしさとは産むことにしか能の無い無能な容姿だから、評価される女性はそんな姿から離れようとする ペットは飼い主に似る
を、地でいくようなネタですねwww
男が作るから、AIも男になったんや
そう捉えてしまえばなんてことはない話だわw 客観的な離職率のデータをを元にAIに採用の可否を決めてもらおう 山本宏子 菅野村強盗殺人放火 4人の子持ち
江藤幸子 福島悪魔祓い殺人事件 4人の子持ち
林真須美 和歌山毒物カレー事件 4人の子持ち
上田美由紀 鳥取連続殺人事件死刑囚 5人の子持ち
吉田純子 福岡看護師連続保険金殺人 3人の子持ち
今井絵里子稲田朋美豊田真由子山尾志桜里森裕子野田聖子小渕優子
橋本聖子金子恵美緒方夕佳杉田水脈
全て子持ちママ議員
出産経験子育てママをことさら重用する社会
女は妊娠出産すればするほど激しく変わるからな
セックス妊娠出産子育てで分泌されてしまうオキシトシンホルモン
排他的エスノセントリック(自民族中心主義)や差別意識
マウンティング妬み攻撃性縄張り意識バイタリティー欲深さの激増する
オキシトシンホルモン
女は男と深く関われば関わるほど性悪になりやすいだろう
;妊娠した女性の脳は「物理的に変化する」
http://news.livedoor.com/article/detail/12452585/
オキシトシンホルモンの副作用、産褥期精神病で検索 >>69
男と女を区別するしきい値を変えれば解決できそうだけど、そういう問題じゃないのかな。 言っちゃ悪いが、化粧せず短髪にすると白人女は男の顔だからね 男性が我慢してきた伝統の部分がAIには欠点に見えるのだろう。論理的に。 多分だけど、真の中立的AIが完成したら
人そのものがAIに排斥されるんだろうなw 女の思考回路は非論理的で理不尽だから、AIの機械的思考の対極だしな >>1
女が中立な立場で容認できないことばかりしてるから嫌いになるんだよ
自覚あるだろ アメリカ社会において
客観的データで、女性に甘い社会が立証されただけじゃねーの
グーグル首になった奴を思い起こす 曲解してポリコレ的に面白おかしく騒ぎ立てて金儲けブーム 入力したデータでは女性が優秀じゃなかったんだろ。
経営陣に能力に性差がないという信念があるなら性別を入力から外せばいいだけ。
それにしてもこの朝日の「負の側面」ってバカじゃないのかね。
能力に性差がある、または無いという意見を持つのは自由だろ。
それを否定するということは、即ち人間の真理を探究する精神活動を否定するこということだぞ。 ■ このスレッドは過去ログ倉庫に格納されています