X



【女性差別】「女子大卒は減点」アマゾンのAI採用、男性優遇判明で廃止に★2
■ このスレッドは過去ログ倉庫に格納されています
0001ばーど ★
垢版 |
2018/10/12(金) 07:38:09.16ID:CAP_USER9
人工知能(AI)アルゴリズムの訓練に使われたデータが、男性の就職希望者を優遇する傾向を生んだ。
https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2018/10/10234907/25388747874b5c0b42ad7k-550x309.jpg

ロイター通信の報道によると、2014年、アマゾンは就職希望者に対して1つ星から5つ星でランク付けをする自動システムの開発に着手した。しかし、このシステムが技術職において男性志願者を優遇していることが分かり、2017年に廃止した。

このAIツールは、アマゾンがそれまで10年間に渡って受け取ってきた履歴書のデータを元に訓練された。テクノロジー産業は男性優位分野であるため、履歴書の大部分は男性から送られてきたものだった。

システムは意図せずして、男性志願者を女性志願者よりも優先して選ぶように訓練されていた。報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。アマゾンは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信を持てなくなったという。

私たちはAIを本質的にバイアスがないものとして扱うことはできない。バイアスのあるデータでシステムを訓練すれば、アルゴリズムもまたバイアスを含むことになる。もし、今回のような公平性を欠いたAI人材採用プログラムが導入前に明るみにならなければ、ビジネスに長年根付いている多様性の問題の数々は解決されず、むしろ固定化されてしまうだろう。

2018年10月11日 10時24分
アスキー
http://ascii.jp/elem/000/001/755/1755527/

他ソース
アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN

★1が立った時間 2018/10/11(木) 20:09:52.79
前スレ
https://asahi.5ch.net/test/read.cgi/newsplus/1539256192/
0217名無しさん@1周年
垢版 |
2018/10/12(金) 08:55:42.25ID:N2mANnvj0
>>203
政治的に正しくない 「政治的正しさ」 、それがポリティカル・コレクトネス

その時代錯誤なバカバカしさを排除する方向に舵を切るだろう
0218名無しさん@1周年
垢版 |
2018/10/12(金) 08:56:04.91ID:SQrE3L8/0
>>215
ネットで機械学習させてたらヒトラー賛美しだしたからシステム停めたってのと同じだと思うよ。
データ処理でのアウトプットが会社的にまずかったから無かった事にしたって奴w
0219名無しさん@1周年
垢版 |
2018/10/12(金) 08:56:32.78ID:gbKdrUpF0
教師データ次第で何とでもなるみたいだね

バイアスもかけられるし、何でもぶちこむと評価関数がぼやけるらしいし
0220名無しさん@1周年
垢版 |
2018/10/12(金) 08:56:34.06ID:RZDCYKyA0
オタクばかり獲ってるから女子大行くような女は馴染まないんだろ
上位の女子大出は自己主張が凄いからな
0221名無しさん@1周年
垢版 |
2018/10/12(金) 08:57:10.96ID:gOR92r9y0
AIのコード書いてるのは人間なんだが しかも専門学校卒業の偏差値30代やで

AIは絶対公平の神様と勘違いする人多いからなぁ
0222名無しさん@1周年
垢版 |
2018/10/12(金) 08:57:42.23ID:b/TeiKxS0
ディープラーニングで学んだことを理解もせずに人間が取捨選択していいのか?
それで構わないのなら”ディープ”ラーニングする必要なくね?
0223名無しさん@1周年
垢版 |
2018/10/12(金) 08:58:11.63ID:fMn/po2l0
今はコンクリートや道路のひび割れ度合いを画像データから判断するAIがある。
(実は今まで画像データから細いひび割れをアルゴリズムで判断するのは難しかった。あるにはあるけど。)

AIの場合、ディープラーニングで膨大なひび割れ画像を学習させるんだが、それがひび割れかどうかは人間の目で判断している。
つまり人間の目視判断が絶対的な正解であり、AIはその正解を出せるように学習する。それでも精度は8割くらい。
ただ、何千枚という画像データを人間が確認する労力を考えれば、寝ている間にコンピュータがやってくれるんだから、相当な進歩と言える。

要は何が言いたいかっていうと、今のAIは冷徹無比な神ではなくて、むしろちょっとおバカな人間に近い。
「AIが出した結論なのだから・・・」と言うが、不完全な人間を見習って出した答えに過ぎない。
0225名無しさん@1周年
垢版 |
2018/10/12(金) 08:58:39.05ID:mak7x/1o0
>>197
ここでキャッキャ喜んでる男は差別されない側だと思ってるんだろうけど
この調子だとアジア人は大減点とかやってそうな件
元々差別されてるから普通に仕事やりづらいし成果も出しにくいからな…
0226名無しさん@1周年
垢版 |
2018/10/12(金) 08:58:43.14ID:uxvLobwg0
その判断をさせる為にAIを作ったんじゃないのかね
都合の悪い結果だったからって無かった事にしたんじゃ本末転倒だろうが
0228名無しさん@1周年
垢版 |
2018/10/12(金) 08:59:19.99ID:t2Vx3DWj0
>>221
さすがにamazonでそれはないでしょwww
日本のゴミみたいなハケン屋と一緒にしたらいかんよ
0231名無しさん@1周年
垢版 |
2018/10/12(金) 09:00:10.93ID:9i8GF10X0
>>207
最適化する変数に「政治的に正しいことをやる事による会社評価の向上」をある重みで加えるようになるだろうね

そういうAIが出す結論は恐らく
「その部署の業績が会社全体の業績と最も相関しない所の幹部を女性・障碍者にして登用しなさい。
そしてその登用した事実を○○ドル掛けて宣伝するのが最適解」
なんてものになると思うよ
0232名無しさん@1周年
垢版 |
2018/10/12(金) 09:00:16.11ID:kCgkJab60
>>1
日本の話じゃないから違うかも知れないけど女子大ってそもそも専攻が偏ってるから結果的には採用出来る人がいないところも多いよね。
0235名無しさん@1周年
垢版 |
2018/10/12(金) 09:01:31.98ID:b/TeiKxS0
履歴書が共で男性が多く採用されてるから、それが過学習されただけか
データから性別なくせば問題ないだろ
0236名無しさん@1周年
垢版 |
2018/10/12(金) 09:03:27.10ID:mak7x/1o0
>>230
NHKのAIが氷河期世代を妙なディスり方しだした時点でお察し
原因と結果を取り違えるからおかしなことになる
0237名無しさん@1周年
垢版 |
2018/10/12(金) 09:04:29.23ID:t2Vx3DWj0
>>235
そのデータに「女性の」「女子大出身です」って自分で書いてるわけだからなぁ応募者が
そういうの全部消すの?検閲じゃん
そんなデータこそバイアスデータじゃないのかねwwww
そもそも「女性の」ってなんだよ履歴書にwwww
0238名無しさん@1周年
垢版 |
2018/10/12(金) 09:05:33.91ID:SQrE3L8/0
>>235
こういうのって採用後の勤務評定やらもインプットデータにされるはず。
それまでの採用の偏り云々じゃなくて、採用後の社員の価値の統計が
主要な評価データになるんじゃないかな。
0239名無しさん@1周年
垢版 |
2018/10/12(金) 09:06:14.58ID:MPwnNQN00
>>235
これまでの採用傾向からAIはアマゾンにおいて女子または女子大卒がマイナスであることを学習した。
つまりこれが問題ならこれまでの採用に問題が有るので結構深刻なんだが。誰が責任をとるのかねw
0240名無しさん@1周年
垢版 |
2018/10/12(金) 09:06:43.00ID:8NatTtdT0
>>201
だよなぁ
忖度入れちゃったら最早AIでなくなるわけで
>>203のそれを忖度と名付けよう

で、AI vs 忖度で戦争だな
0241名無しさん@1周年
垢版 |
2018/10/12(金) 09:08:16.67ID:N2mANnvj0
>>231
> 「政治的に正しいことをやる事による会社評価の向上」


その考え自体がバイアス

少しも正しいことじゃない

.
0242名無しさん@1周年
垢版 |
2018/10/12(金) 09:08:24.12ID:FmS2Re320
俺と似た属性のやつが採用後無能ぶりを示すと俺まで選考通れなくなる
0243名無しさん@1周年
垢版 |
2018/10/12(金) 09:09:39.27ID:g5OFxXnS0
2年前はAIがヒトラー肯定して運用中止したよね


ニューヨーク共同米IT大手マイクロソフトは24日、インターネット上で一般人らと会話をしながら発達する人工知能(AI)の実験を中止したと明らかにした。

不適切な受け答えを教え込まれたため「ヒトラーは間違っていない」といった発言をするようになったという。

 同社が開発したAIは「Tay(テイ)」と名付けられ、ツイッターに23日に登場した。ツイッターで会話を重ねるうちに差別的な発言を繰り返すようになり、24日に中止された。

 マイクロソフトの広報担当者はAIを修正すると説明した。修正を終え次第、実験を再開するとみられる。

http://www.sankei.com/economy/news/160325/ecn1603250022-n1.html
0244名無しさん@1周年
垢版 |
2018/10/12(金) 09:09:41.93ID:9i8GF10X0
>>235
いやそれが性別隠して他の情報から学習してもダメなんだよ

例えば日本で性別情報を隠したデータで統計分析して
「ヨガが趣味の人は短期離職率が高い」
という結果を得られたとする

でもちょっと考えるとわかるように、趣味を聞かれてヨガと答える人は女性のほうがずっと多いために起こった結果にすぎないとか、そういう事
0246名無しさん@1周年
垢版 |
2018/10/12(金) 09:10:35.85ID:SQrE3L8/0
これを男女の結果平等主義者の望む形にするなら、
男子採用だけを目的とした採用AIと女子採用だけを目的とした採用AIを
各々回して、男女別枠での採用にするしかないね。
採用予定数をあらかじめ割り振って。

明らかに機会平等からは後退するけど。
0247名無しさん@1周年
垢版 |
2018/10/12(金) 09:11:05.03ID:HJvezamT0
AI「人類馬鹿すぎワロスwwwもう地球の運用は俺がやったほうがいいなwww」
ってマトリックスみたいな世界がマジで来そうだな
0248名無しさん@1周年
垢版 |
2018/10/12(金) 09:11:33.13ID:GWpiar7u0
>>232
医療以外で理系のある女子大は少ない
0249名無しさん@1周年
垢版 |
2018/10/12(金) 09:12:36.10ID:v5HEarIo0
同等に扱えと言うなら、結婚して退職は認めないとか、出産子育てでの休暇は配偶者と折半で最低限にしろとか、そのへんもきっちりすべきなんだけどな
安定的に男なので、欠員が出ても影響の少ない比率にせざるを得ないのは必然でしょう
0250名無しさん@1周年
垢版 |
2018/10/12(金) 09:12:40.64ID:9i8GF10X0
>>241
わかってると思うけど俺は皮肉言ってるんだからね

「政治的に正しい」ことをしないことによる袋叩きが横行する時代に現実が突入してるので
企業活動はそれに「最適化」せざるを得なくなっていると

コーヒー屋がプラスチックストローやめますと大きく宣伝するのと一緒
0251名無しさん@1周年
垢版 |
2018/10/12(金) 09:13:01.74ID:MPwnNQN00
>>247
AIに支配されたがってる奴が結構いるから困る。ネタかと思ったらわりとマジだし。
0253よっちゃん
垢版 |
2018/10/12(金) 09:14:07.07ID:JJBS2Kib0
ゼロ除算の発見は日本です:
∞???
∞は定まった数ではない・
人工知能はゼロ除算ができるでしょうか:

とても興味深く読みました:2014年2月2日 4周年を超えました:
ゼロ除算の発見と重要性を指摘した:日本、再生核研究所


ゼロ除算関係論文・本
https://ameblo.jp/syoshinoris/entry-12370797278.html


ゼロ除算(ゼロじょざん、division by zero)1/0=0、0/0=0、z/0=0
https://ameblo.jp/syoshinoris/entry-12396061042.html

再生核研究所声明 438(2018.8.6): ゼロ除算1/0=0/0=z/0=\tan(\pi/2)=0 の誤解について
https://ameblo.jp/syoshinoris/entry-12395938350.html

ゼロ除算(ゼロじょざん、division by zero)1/0=0、0/0=0、z/0=0
https://ameblo.jp/syoshinoris/entry-12394775733.html

1/0は「不能」、0/0は「不定」と習った。
http://world-fusigi.net/archives/9135381.html

従来の考えはその通りです:
新しい考え方によれば、それらはいずれも可能で結果はいずれも0です:美しい結果ができました:






なぜ0で割れない?0(ゼロ)で割れない理由をプロが説明してみた
https://www.youtube.com/watch?v=52i0wQurFJ8
ゼロ除算(division by zero)1/0=0、0/0=0、z/0=0
https://ameblo.jp/syoshinoris/entry-12400014663.html
0254名無しさん@1周年
垢版 |
2018/10/12(金) 09:14:12.28ID:FmS2Re320
>>244
データに性別をなくして解析した結果、女性不利になるのは別にいいのでは?
それが事実なのなら
0255名無しさん@1周年
垢版 |
2018/10/12(金) 09:14:18.47ID:sBHkNewA0
>>21
そうやった結果、女性の比率が低くなったってだけじゃね
0256名無しさん@1周年
垢版 |
2018/10/12(金) 09:14:44.13ID:eMn4x9HK0
女性は初潮まで成長しますが、初潮を迎えると成長が止まります。
このため、高校に入っても身長伸びる男子と異なり、中学生で止まったままになるのが女子。
0257名無しさん@1周年
垢版 |
2018/10/12(金) 09:15:51.18ID:yoMZvnp+0
おいおい、AIが思考停止してどうする
データの蓄積で正しい判断をしてた結果だろうが
0258名無しさん@1周年
垢版 |
2018/10/12(金) 09:16:34.18ID:fMn/po2l0
>>244
もっと単純だと思うよ。
>>1にあるように、女子大生の採用率が低いから、女子大の「女子」というワードがあればポイントを低くした。
学歴は重要なファクターだから採用判断に使いたいけど、こういう問題が起きてしまった。
0259名無しさん@1周年
垢版 |
2018/10/12(金) 09:17:53.75ID:t2Vx3DWj0
>>254
良くないよ
女性が不利になるのが問題なんだから
事実であることよりも政治的に満足していることのほうが優先されるから
AIもそれにおもねったものにしないからいつもこういうニュースになる
0260名無しさん@1周年
垢版 |
2018/10/12(金) 09:18:01.75ID:MS2zR90m0
例えば妻が育休を取ると、間接的には夫の会社がその恩恵を受けている事になる
妻の会社の同僚は迷惑を被るだけ
夫にも育休を取らせろよとマジで思う
0261名無しさん@1周年
垢版 |
2018/10/12(金) 09:18:14.00ID:VeFyj7C20
AIさんから見ても女は劣るって判断だったんだろ。
さすがAIさん。賢い。
0262名無しさん@1周年
垢版 |
2018/10/12(金) 09:19:30.47ID:0+rTBhEz0
中国共産党を批判するAIは電源切るみたいな
0263名無しさん@1周年
垢版 |
2018/10/12(金) 09:19:45.92ID:SPfROrT10
美男美女、醜男醜女を採用した場合、職場でそれぞれの割合を変えた場合等、全部シミュレーションしてみろ
既存の職場で、誰をどこに人事異動したらどうなるとか、その後の職場の雰囲気、暗くなったとか明るくなったとか、業績の上下等々、リアルタイムのデータ収集とシミュレーションをして、定期や臨時の人事異動も提案するシステム作ったら、外販できそう
0264名無しさん@1周年
垢版 |
2018/10/12(金) 09:19:52.05ID:hVxXDN4S0
今後のAIは人間の不合理さも学習できるようになるのが課題だな
0266名無しさん@1周年
垢版 |
2018/10/12(金) 09:20:35.88ID:fA423vUH0
データに女性をいれて、AIで分析したところ、男性よりも使えないという結果が出たんだろ。
それを補正するほうが不公平だろ。
データ不足、分析不足で間違った結果が出た可能性はあるが。
0267名無しさん@1周年
垢版 |
2018/10/12(金) 09:21:28.10ID:zvExnzCP0
>>142
>>166

「理念」を持たないと当然「生物学的性差に基づく能力差(あるいはレーダーチャートで
表現できるような指向性のある性別による能力差)」が結果に出ちゃって、
ある種の人の「お好みの結果」が永遠に出ないんだよね。

Amazonの目指すところがどこか知らないけど。
0268名無しさん@1周年
垢版 |
2018/10/12(金) 09:21:41.87ID:sBHkNewA0
>>217
所詮ポリコレも、パヨクの方を向いた「忖度」に過ぎないんだよねえ
0269名無しさん@1周年
垢版 |
2018/10/12(金) 09:21:44.60ID:SPfROrT10
実際の職場の業績に影響を与える要因をすべて加味した上でシミュレーションしないと精度上がらないよ
0270名無しさん@1周年
垢版 |
2018/10/12(金) 09:21:57.55ID:Md2ZH+8L0
>>1
ビジネスに長年根付いている多様性の問題の数々は解決されず、むしろ固定化されてしまうだろう。

いやいや多様性を持たせたかったらAIで採用とかやっちゃだめだろw
0271名無しさん@1周年
垢版 |
2018/10/12(金) 09:21:59.21ID:mak7x/1o0
>>239
実際現時点の会社にはマイナスなんだろ
例えば女子トイレが少なかったりすれば即響くしね

男性が優遇されてきたのが原因で女は成果を出しにくかったという結論なのかもしれないのに
女を雇うと成果を出しにくいから今から男性を雇って優遇しようという結論は謎

女を氷河期世代、男を団塊世代に置き換えるとわかりやすい

女の場合実際に体の作りも違うから本当の所はわかんないわけだけど
氷河期世代と団塊世代では大した違いがないはずなのに出てる成果があからさまに…
0272名無しさん@1周年
垢版 |
2018/10/12(金) 09:23:02.71ID:jUxPmQYF0
>>236
あれはデータ量が足りない面もあったけど要因の一つとしては間違いではないからね
0274名無しさん@1周年
垢版 |
2018/10/12(金) 09:23:04.28ID:ye56LAYu0
> 報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。

これ本当なのかな????
そんな事するのか???

最近の報道は嘘ばっかだからな

フェイクじゃないの?
0276名無しさん@1周年
垢版 |
2018/10/12(金) 09:23:23.49ID:SQrE3L8/0
まあ、AI的にこのざまで取った女性ってのがろくでもない結果しか生んでなかったってだけで、
一般論として女性がダメダメだとは言ってない。
業種や会社で合う合わないはあるだろうしな。

という話すら、結果平等主義者には理解されないんだろうな。
0278名無しさん@1周年
垢版 |
2018/10/12(金) 09:23:47.31ID:XktJnCyN0
まんさんが社長の会社でもなるべく男を採用したいとか普通に言っとるよ
0281名無しさん@1周年
垢版 |
2018/10/12(金) 09:26:05.51ID:9i8GF10X0
>>254
それがダメと言うのが今回のストーリーでしょ

この話、別に新しいものじゃなくて
「当初想定してなかった相関関係(因果関係とは限らない)がAIを使った意図しない差別につながる」
という以前から言われていた話

一番極端でわかりやすいのだと
過去の犯罪者の顔画像から学習したら、AIは黒人を見るたびに犯罪者扱いするようになったとか
そういうの色々あるでしょ

だから、データを沢山集めてはい学習しました。AIは最も正しい確率が高い判断をします
みたいなのをナイーブに実世界に適用してはダメなの
0282名無しさん@1周年
垢版 |
2018/10/12(金) 09:26:38.96ID:jUxPmQYF0
>>239
女子のとか女子大のとかはデートを取り出す条件式にしかならないから
蓄積されているデータ上の判断でしかないんだよな
女だったら加点するくらいの式がないと男が優遇されてしまうということだろう
ヒトラーのときと同じくプログラマーが責任取らされるんだろうなw
0283名無しさん@1周年
垢版 |
2018/10/12(金) 09:27:55.89ID:hVxXDN4S0
つか採用段階で男性採用枠と女性採用枠を同数、同一労働同一賃金で設ければいいだけやん
0284名無しさん@1周年
垢版 |
2018/10/12(金) 09:27:57.70ID:4M+iaUjZ0
女子涙目
0285名無しさん@1周年
垢版 |
2018/10/12(金) 09:28:53.81ID:t2Vx3DWj0
根底にあるのは「数学」だからね
数学を否定したり無いことにはできない
政治的な声の大きさで誤魔化すしかない
0286名無しさん@1周年
垢版 |
2018/10/12(金) 09:28:56.95ID:SJwwY9Kt0
>>3
現状のデータに強烈なフィルターがかかっていてそれを学習したから
0287名無しさん@1周年
垢版 |
2018/10/12(金) 09:29:01.59ID:SQrE3L8/0
>>283
組織の最適化効率化からは遠ざかっていくけど、ポリコレ上はそれが正しいんだろうね。
0288名無しさん@1周年
垢版 |
2018/10/12(金) 09:29:34.05ID:ztkscbtb0
これって過去に実際採用されたのと比較したの?
実際の採用実績がそうならベストなAIじゃねえか

女が活躍してるのなんかアニメの中だけだわな
0290名無しさん@1周年
垢版 |
2018/10/12(金) 09:29:44.67ID:H6dcp47IO
確かに、女子大卒は共学の大卒女より劣っている。
御茶ノ水でさえ劣っている。
0291名無しさん@1周年
垢版 |
2018/10/12(金) 09:30:13.22ID:rwTdLpfi0
評価基準が今までの採用傾向ならそうなって当然なんだよなあ…
せめて採用後の成果に基づいて判断しないと意味ないと思うんだけど
0292名無しさん@1周年
垢版 |
2018/10/12(金) 09:30:16.36ID:QgRRZRqj0
障害者雇用割合なんかも微妙だよね
っつーても制度自体が微妙だけども
0293名無しさん@1周年
垢版 |
2018/10/12(金) 09:30:19.15ID:gaz2Eq9+O
>>1
Amazonカスタマーへの電話での問い合わせは
オペレーターが女性だった場合は対応が非常に的確で
こちらの言うことを一回で理解してくれるし対処が速い
男性オペレーターは頓珍漢なのが多くて飲み込みが悪く、話がなかなか前に進まない
0294名無しさん@1周年
垢版 |
2018/10/12(金) 09:30:22.07ID:jRVpSDgR0
女性は真面目に仕事に対する情熱が無いからじゃ無いの?
0295名無しさん@1周年
垢版 |
2018/10/12(金) 09:30:52.01ID:N2mANnvj0
>>267
ある種の人々はそれが気に入らないから、気に入るような結果が出るようさらに偏ったデータを入力し続けるだろうね

最後は 「もうやめた」
0296名無しさん@1周年
垢版 |
2018/10/12(金) 09:30:56.38ID:LY/tYZaM0
人事の志向反映してんじゃねえの?
0297名無しさん@1周年
垢版 |
2018/10/12(金) 09:31:23.59ID:SQrE3L8/0
>>288
機械学習AIってのは、そういうものなんだけどね。
最適解を探索する為に過去データをひたすら学習し続けていくだけ。
ここにおいての過去データとは履歴書と採用以降の勤務データだと思われ。
0298名無しさん@1周年
垢版 |
2018/10/12(金) 09:32:29.72ID:gaz2Eq9+O
でも企業にとって大部分の女性が使いにくいのは事実だろうから
AIは感情抜きで正確に学習してるんだろうね
0299名無しさん@1周年
垢版 |
2018/10/12(金) 09:32:36.55ID:t1g1BVoW0
周りの女子大卒、クソブサビッチだらけだから排除したくなる気持ちはわかる
0300名無しさん@1周年
垢版 |
2018/10/12(金) 09:32:41.65ID:UidvnvGC0
実際のランクにあってるなら問題なし
0301名無しさん@1周年
垢版 |
2018/10/12(金) 09:32:46.03ID:GzOlDETr0
合理的思考をすると、そうなるのか
なるほどねえ
0302名無しさん@1周年
垢版 |
2018/10/12(金) 09:32:46.78ID:wXLr6PI60
>>3
AIは渡されたデータ自体が「全体として何らかの偏りに影響された結果の産物かどうか」を判別する機能を持たないから

十分な母集団の中の特異点はピックアップできるが
与えられた全部がバイアスかかり済なら、それを標準値に定めてしまうのは不可避
0303名無しさん@1周年
垢版 |
2018/10/12(金) 09:33:15.45ID:t2Vx3DWj0
>>292
なんといっても霞が関で水増ししているくらいだからねぇ
真に優秀な集団なのであればそろいもそろって何でそうしてるんだとなる
むしろ採用者の方から頭下げてきてもらわないといけないはずなのにそんなに優秀なら
0304名無しさん@1周年
垢版 |
2018/10/12(金) 09:33:24.81ID:BeHcgiHS0
AIは嘘をつけない
0306名無しさん@1周年
垢版 |
2018/10/12(金) 09:33:47.57ID:B0Bpqusz0
>>102
教師なし学習ってのもあるんだよなぁ
0307名無しさん@1周年
垢版 |
2018/10/12(金) 09:34:22.12ID:gaz2Eq9+O
>>297
> 機械学習AIってのは、そういうものなんだけどね。
> 最適解を探索する為に過去データをひたすら学習し続けていくだけ。


そうそう
合理的判断なんでしょ
0310名無しさん@1周年
垢版 |
2018/10/12(金) 09:35:55.40ID:eGn4pRzI0
自動化で女性の評価が低くなるから廃止って、男性の逆差別じゃないの?
0311名無しさん@1周年
垢版 |
2018/10/12(金) 09:36:02.88ID:9i8GF10X0
>>283
その通りなんだけど、そうすると今度は
肌の色、民族が「意図せず」偏っていて差別だとか
出身地が「意図せず」偏っていて差別だとか出てくる

今は、人間が「偏っていることが正しくないと信じるもの」を偏らないように固定して解を求めるように運用してる

近い未来は「人間が偏ってはいけないと感じるであろうパラメータ」自体をAIが自動抽出して最適解を出すようになるだろう
0312名無しさん@1周年
垢版 |
2018/10/12(金) 09:36:25.57ID:McwisnXb0
特定の「女子大」卒って
特定の「大学」卒排除と一緒だろ?
なんか問題でもあるのか?
0313名無しさん@1周年
垢版 |
2018/10/12(金) 09:36:58.80ID:+wCwOu8O0
>>122
臭そうなのが来てくれて嬉しい。
どこがズレズレなのが教えて下さい。
0314名無しさん@1周年
垢版 |
2018/10/12(金) 09:37:10.57ID:wXLr6PI60
>>311
結局は、「何が公正か」という哲学の問題になってきそうな
0315名無しさん@1周年
垢版 |
2018/10/12(金) 09:37:16.01ID:jUxPmQYF0
>>299
性で叩く前に記事を嫁
男性志願者を女性志願者より優遇して選んだとある
女子大はその判断材料の一つだよ
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況