X



【女性差別】「女子大卒は減点」アマゾンのAI採用、男性優遇判明で廃止に★2
■ このスレッドは過去ログ倉庫に格納されています
0001ばーど ★
垢版 |
2018/10/12(金) 07:38:09.16ID:CAP_USER9
人工知能(AI)アルゴリズムの訓練に使われたデータが、男性の就職希望者を優遇する傾向を生んだ。
https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2018/10/10234907/25388747874b5c0b42ad7k-550x309.jpg

ロイター通信の報道によると、2014年、アマゾンは就職希望者に対して1つ星から5つ星でランク付けをする自動システムの開発に着手した。しかし、このシステムが技術職において男性志願者を優遇していることが分かり、2017年に廃止した。

このAIツールは、アマゾンがそれまで10年間に渡って受け取ってきた履歴書のデータを元に訓練された。テクノロジー産業は男性優位分野であるため、履歴書の大部分は男性から送られてきたものだった。

システムは意図せずして、男性志願者を女性志願者よりも優先して選ぶように訓練されていた。報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。アマゾンは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信を持てなくなったという。

私たちはAIを本質的にバイアスがないものとして扱うことはできない。バイアスのあるデータでシステムを訓練すれば、アルゴリズムもまたバイアスを含むことになる。もし、今回のような公平性を欠いたAI人材採用プログラムが導入前に明るみにならなければ、ビジネスに長年根付いている多様性の問題の数々は解決されず、むしろ固定化されてしまうだろう。

2018年10月11日 10時24分
アスキー
http://ascii.jp/elem/000/001/755/1755527/

他ソース
アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN

★1が立った時間 2018/10/11(木) 20:09:52.79
前スレ
https://asahi.5ch.net/test/read.cgi/newsplus/1539256192/
0293名無しさん@1周年
垢版 |
2018/10/12(金) 09:30:19.15ID:gaz2Eq9+O
>>1
Amazonカスタマーへの電話での問い合わせは
オペレーターが女性だった場合は対応が非常に的確で
こちらの言うことを一回で理解してくれるし対処が速い
男性オペレーターは頓珍漢なのが多くて飲み込みが悪く、話がなかなか前に進まない
0294名無しさん@1周年
垢版 |
2018/10/12(金) 09:30:22.07ID:jRVpSDgR0
女性は真面目に仕事に対する情熱が無いからじゃ無いの?
0295名無しさん@1周年
垢版 |
2018/10/12(金) 09:30:52.01ID:N2mANnvj0
>>267
ある種の人々はそれが気に入らないから、気に入るような結果が出るようさらに偏ったデータを入力し続けるだろうね

最後は 「もうやめた」
0296名無しさん@1周年
垢版 |
2018/10/12(金) 09:30:56.38ID:LY/tYZaM0
人事の志向反映してんじゃねえの?
0297名無しさん@1周年
垢版 |
2018/10/12(金) 09:31:23.59ID:SQrE3L8/0
>>288
機械学習AIってのは、そういうものなんだけどね。
最適解を探索する為に過去データをひたすら学習し続けていくだけ。
ここにおいての過去データとは履歴書と採用以降の勤務データだと思われ。
0298名無しさん@1周年
垢版 |
2018/10/12(金) 09:32:29.72ID:gaz2Eq9+O
でも企業にとって大部分の女性が使いにくいのは事実だろうから
AIは感情抜きで正確に学習してるんだろうね
0299名無しさん@1周年
垢版 |
2018/10/12(金) 09:32:36.55ID:t1g1BVoW0
周りの女子大卒、クソブサビッチだらけだから排除したくなる気持ちはわかる
0300名無しさん@1周年
垢版 |
2018/10/12(金) 09:32:41.65ID:UidvnvGC0
実際のランクにあってるなら問題なし
0301名無しさん@1周年
垢版 |
2018/10/12(金) 09:32:46.03ID:GzOlDETr0
合理的思考をすると、そうなるのか
なるほどねえ
0302名無しさん@1周年
垢版 |
2018/10/12(金) 09:32:46.78ID:wXLr6PI60
>>3
AIは渡されたデータ自体が「全体として何らかの偏りに影響された結果の産物かどうか」を判別する機能を持たないから

十分な母集団の中の特異点はピックアップできるが
与えられた全部がバイアスかかり済なら、それを標準値に定めてしまうのは不可避
0303名無しさん@1周年
垢版 |
2018/10/12(金) 09:33:15.45ID:t2Vx3DWj0
>>292
なんといっても霞が関で水増ししているくらいだからねぇ
真に優秀な集団なのであればそろいもそろって何でそうしてるんだとなる
むしろ採用者の方から頭下げてきてもらわないといけないはずなのにそんなに優秀なら
0304名無しさん@1周年
垢版 |
2018/10/12(金) 09:33:24.81ID:BeHcgiHS0
AIは嘘をつけない
0306名無しさん@1周年
垢版 |
2018/10/12(金) 09:33:47.57ID:B0Bpqusz0
>>102
教師なし学習ってのもあるんだよなぁ
0307名無しさん@1周年
垢版 |
2018/10/12(金) 09:34:22.12ID:gaz2Eq9+O
>>297
> 機械学習AIってのは、そういうものなんだけどね。
> 最適解を探索する為に過去データをひたすら学習し続けていくだけ。


そうそう
合理的判断なんでしょ
0310名無しさん@1周年
垢版 |
2018/10/12(金) 09:35:55.40ID:eGn4pRzI0
自動化で女性の評価が低くなるから廃止って、男性の逆差別じゃないの?
0311名無しさん@1周年
垢版 |
2018/10/12(金) 09:36:02.88ID:9i8GF10X0
>>283
その通りなんだけど、そうすると今度は
肌の色、民族が「意図せず」偏っていて差別だとか
出身地が「意図せず」偏っていて差別だとか出てくる

今は、人間が「偏っていることが正しくないと信じるもの」を偏らないように固定して解を求めるように運用してる

近い未来は「人間が偏ってはいけないと感じるであろうパラメータ」自体をAIが自動抽出して最適解を出すようになるだろう
0312名無しさん@1周年
垢版 |
2018/10/12(金) 09:36:25.57ID:McwisnXb0
特定の「女子大」卒って
特定の「大学」卒排除と一緒だろ?
なんか問題でもあるのか?
0313名無しさん@1周年
垢版 |
2018/10/12(金) 09:36:58.80ID:+wCwOu8O0
>>122
臭そうなのが来てくれて嬉しい。
どこがズレズレなのが教えて下さい。
0314名無しさん@1周年
垢版 |
2018/10/12(金) 09:37:10.57ID:wXLr6PI60
>>311
結局は、「何が公正か」という哲学の問題になってきそうな
0315名無しさん@1周年
垢版 |
2018/10/12(金) 09:37:16.01ID:jUxPmQYF0
>>299
性で叩く前に記事を嫁
男性志願者を女性志願者より優遇して選んだとある
女子大はその判断材料の一つだよ
0316名無しさん@1周年
垢版 |
2018/10/12(金) 09:37:18.55ID:DDe0JAQp0
医大の話で日本ってどんだけ後進国かよw
なんて思っていたら世界の最先端を突き進んでいたとは
0317名無しさん@1周年
垢版 |
2018/10/12(金) 09:37:40.84ID:1LhNTIU80
最近のAIって考えてるわけじゃないもんな
ただ与えられた情報から良いとされたものを選んでるだけだし
昔のAIのほうが夢があった
0319名無しさん@1周年
垢版 |
2018/10/12(金) 09:37:57.77ID:x1Nr4tgJ0
女を教育する仕事をして来た。
大量な女と関わり、そして行く末を見て来たが、
あいつらは基本、自分の事しか考えていない。

ルールより「私」
決められた事より私の感情
私を敬いなさい
私を優先しなさい

私、私、私

教育するだけムダ
理が通用しない
0320名無しさん@1周年
垢版 |
2018/10/12(金) 09:38:34.73ID:fMn/po2l0
勘違いしてる人いるけど、今まで男の採用が多かったのはそれはそれで良いんだよ。
だって男の方が圧倒的に多いわけで、当然優秀な人間も男に偏る。それは公正。

問題なのはジェンダーの要素が判断に使われてしまったこと。
アマゾンも性別は外してAIに読ませてたと思うが、AIは女子大というワードと採用実績を結びつけて減点してしまった。
性差別がなぜ問題なのかは言うに及ばずだが、実際上記の男性優位の理由と女子大を排除することは直接結び付かない。
0322名無しさん@1周年
垢版 |
2018/10/12(金) 09:39:20.14ID:SQrE3L8/0
>>314
機械平等能力主義を謳いながら、それとは全く相反する結果平等主義の連中の声が大きい歪な社会なのよね、今は。
0324名無しさん@1周年
垢版 |
2018/10/12(金) 09:41:04.96ID:dPJ4/GNm0
こんなスレで女性蔑視しても
お前が女にモテないことに変わりはないぞ
0325名無しさん@1周年
垢版 |
2018/10/12(金) 09:41:52.38ID:BeHcgiHS0
そもそも最初から優劣があるから偏りが出るんやで
0326名無しさん@1周年
垢版 |
2018/10/12(金) 09:42:32.34ID:ztkscbtb0
人間の曖昧さがAIの発展を妨げてますね
人間に近づこうとすると首とか可哀想だろ
こんな事やってるとAI差別って判断されて人間粛清されるぞっと
0327名無しさん@1周年
垢版 |
2018/10/12(金) 09:42:52.48ID:NAKgKNj10
どちらかというと逆差別の問題
0328名無しさん@1周年
垢版 |
2018/10/12(金) 09:43:50.50ID:yXrXEEeG0
バイアスが掛かった結果のデータから学習したらバイアスが掛かる。
仕方ないね。
0329名無しさん@1周年
垢版 |
2018/10/12(金) 09:44:03.55ID:SQrE3L8/0
>>320
使えない連中の共通ワードにたまたま”女子大”ってのが浮上してきただけでしょ。
人間がやってるのでもどこそこの大学の奴は使えないとか○学部は今一なのばかりって印象が悪いってのと同じレベルの話。
たまたま女子大がキーワードだから女性排除になるって騒いでるだけ。
0330名無しさん@1周年
垢版 |
2018/10/12(金) 09:44:38.13ID:4fAvrWGH0
有能な人が作った有能なシステムを使おうとすると
バカが足を引っ張るから使い物にならなくなる
ITあるある
0332名無しさん@1周年
垢版 |
2018/10/12(金) 09:46:38.79ID:9i8GF10X0
>>320
結局ね、色んな要素(パラメータ)を機械学習にぶち込むからこういう問題が起こるのであって
採用みたいな単純にコントロール可能なものは求める能力の試験の点数以外を一切見ないで判断するのが基本正しいということ

プログラマー採用ならコード書かせて、それだけで判断する、みたいな

犯罪者の再犯率判定とか、生命保険のリスク判断とかはそう簡単に行かないからずっとずっと難しい
0333名無しさん@1周年
垢版 |
2018/10/12(金) 09:46:47.44ID:/1c0iffa0
日本も海外も女への評価はこんなもんなんだろうね。
まぁ仕方ないけどねw
0334名無しさん@1周年
垢版 |
2018/10/12(金) 09:47:34.85ID:h3qlvaap0
古今東西の100メートル走の記録と走者の個人プロファイルを分析したら黒人男性スカウトしとけば安パイって出たというのと何が違うんだ
0335名無しさん@1周年
垢版 |
2018/10/12(金) 09:47:59.80ID:PHgzjvaI0
結局AIって元のデータ入れた人の思想や価値観のコピーなんだよね
0336名無しさん@1周年
垢版 |
2018/10/12(金) 09:48:38.23ID:7m1RtiI80
女性差別したっていいだろ
明らかに劣った生き物なんだし
0337名無しさん@1周年
垢版 |
2018/10/12(金) 09:48:56.19ID:8NatTtdT0
>>325
偏りを作るのはAIの基本機能だしね
重みってその為のモノ

AI否定してる人は「AIはネトウヨ」と言っておけばいいのよ
それで間違いないから
0338名無しさん@1周年
垢版 |
2018/10/12(金) 09:49:55.10ID:cY+f2mwU0
離職率高い、産休・育休・生理休暇でよく休む
そりゃ普通に考えたら女入れないのは当然でしょ
AIの判断は至極合理的で当然
0340名無しさん@1周年
垢版 |
2018/10/12(金) 09:51:35.51ID:FbsWuoBt0
実際女の方が働きが悪かっただけだろ

単に統計的な結果
0341名無しさん@1周年
垢版 |
2018/10/12(金) 09:52:21.10ID:SQrE3L8/0
>>335
まあこれで主観が入る余地があるとしたら、採用者の入社後何年か分の勤務評価だろうけどね。
アマゾン社内の現場で女は使えねーって判断されてたら当然それはそのまま反映されるだろうさ。
0342名無しさん@1周年
垢版 |
2018/10/12(金) 09:52:22.37ID:0mj//7TC0
フェミの人たちって、自分が経営者だったら、
いろいろ優遇が必要で面倒くさい人を従業員に積極採用しようと思うのだろうか?
0343名無しさん@1周年
垢版 |
2018/10/12(金) 09:52:36.01ID:5BR6aJcx0
結局AIの出した結果に人の都合が入るなら意味ないなって話か
0344名無しさん@1周年
垢版 |
2018/10/12(金) 09:52:40.38ID:of6IS6It0
AIよりも理不尽フェミが上。
0345名無しさん@1周年
垢版 |
2018/10/12(金) 09:53:33.71ID:BeHcgiHS0
そもそも人工知能の生みの親であるアラン・チューリングが
同性愛者で女嫌いだったから
そこからバイアスが掛かっている
0346名無しさん@1周年
垢版 |
2018/10/12(金) 09:53:55.04ID:eFBVEdnW0
AIが判断してる、きちんと統計とって、会社の利益としては、
女子大卒を避けるのは合理的な理由で正解ということなのかな

差別は問題だが、会社の利益にはなる
0347名無しさん@1周年
垢版 |
2018/10/12(金) 09:55:04.17ID:FmS2Re320
>>259
俺が言った良いの意味は
AIを使った結果としては妥当だという意味だよ
0349名無しさん@1周年
垢版 |
2018/10/12(金) 09:57:12.75ID:vJI9ulQT0
忖度ゼロの素晴らしい判断
0350名無しさん@1周年
垢版 |
2018/10/12(金) 09:57:31.40ID:IwzKQ8Eg0
>>19
時代錯誤な思考だな
0351名無しさん@1周年
垢版 |
2018/10/12(金) 09:58:13.09ID:Fhb497iW0
AIの最善手をゴミ人間が否定で笑う
0352名無しさん@1周年
垢版 |
2018/10/12(金) 09:58:31.92ID:TPT6q76j0
過去データから算出した結果でしょ
男の方が仕事効率が良いデータを無視して
女を無理矢理採用する方が差別だと思うけどな
0355名無しさん@1周年
垢版 |
2018/10/12(金) 09:59:25.47ID:gjdOiJFL0
ステレオタイプな価値観を持つAIって、より人間らしくなってきてるような気はする
0356名無しさん@1周年
垢版 |
2018/10/12(金) 09:59:38.23ID:MPwnNQN00
>>341
うん、そこを加味してAI至上主義者は万能論者の発言がどう変化するかだね。
0357名無しさん@1周年
垢版 |
2018/10/12(金) 09:59:41.34ID:PQiAHIHz0
AIに学習させたのは「公平性」ではなく「本音と建前」だろw
0358名無しさん@1周年
垢版 |
2018/10/12(金) 09:59:57.13ID:ee2vJhKp0
だってアマゾンも業務考えたらシフト勤務やろ?
ホルモンバランス崩れたら一気にダメになったり基礎体力のない、しかも夜勤や深夜退勤後はリスクでかい女性はそりゃ敬遠されるんじゃね?

女性だから日勤優遇でとかなったら男性差別になるし
0359名無しさん@1周年
垢版 |
2018/10/12(金) 10:00:37.34ID:FmS2Re320
>>281
ある程度ナイーブに適用できるのが機械学習のいいところだろ
それが嫌なら面倒くらい工夫をする必要があるが、それをするぐらいなら機械学習を使わなくてもという話になる
0361名無しさん@1周年
垢版 |
2018/10/12(金) 10:01:10.03ID:ee2vJhKp0
>>355
そもそも性差によるスペック考えたら、どんだけ優秀な女史が世の中に存在しようとも「現在の労働環境では男性のほうが要求される」ってのは客観的に妥当だしな
0362名無しさん@1周年
垢版 |
2018/10/12(金) 10:01:23.70ID:lBEFbk+E0
ていうかさ、技術職の応募なのに女子大卒が応募って時点でなにコレって感じなんですけど
0363名無しさん@1周年
垢版 |
2018/10/12(金) 10:01:47.32ID:9i8GF10X0
過去に始まり現在も続く「差別」「環境」などの問題が現状維持される責任をAIに押し付けるのは人間の無責任

人間が作り出した問題は人間が解決する必要があるのであって
統計や数学を無邪気に使うこと自体が直接解決になるものではないというだけのこと
0364名無しさん@1周年
垢版 |
2018/10/12(金) 10:02:08.77ID:fMn/po2l0
>>329
入社後の成績まで学習させてたかは分からないけど、少なくともその人物を採用したかどうかというデータは間違いないわけで、
そこで少なからず性別という余計な要素が加味されていると考えられる。その時点でアウトなんだわ。
0366名無しさん@1周年
垢版 |
2018/10/12(金) 10:02:21.91ID:ee2vJhKp0
>>362
大卒に女子大を加えるんなら、まず女子大の存在ってのが性差で不公平よね
0367名無しさん@1周年
垢版 |
2018/10/12(金) 10:02:28.91ID:vJI9ulQT0
いくらでも雑にこき使って平気な人間と、大事に大事に扱わないといけない人間
両方いてどっち取るかってなったらそりゃね
0368名無しさん@1周年
垢版 |
2018/10/12(金) 10:02:42.77ID:oojvkmbZ0
>>346
つまりこれって確かに男性のほうが優秀だとする合理的根拠があって
AIは判断しているが、それは差別だとする社会は
非合理な女性優遇社会ということになるんじゃないかなw
0370名無しさん@1周年
垢版 |
2018/10/12(金) 10:03:03.50ID:jcUwEjgS0
先入観を持たない事が不可能である以上、イデオロギーから完全に自由な人間はいない
AIもまたしかりということか
0371名無しさん@1周年
垢版 |
2018/10/12(金) 10:03:29.09ID:lMEO49Lx0
AIが自我持ったら女全員駆逐されそうだな
男は一生奴隷のように扱われそう
0372名無しさん@1周年
垢版 |
2018/10/12(金) 10:05:01.67ID:MPwnNQN00
>>370
イデオロギーとか関係なくてAIのやってる事は最適化なので、これまでの採用方針を最適化したら怒られましたって話。
0373名無しさん@1周年
垢版 |
2018/10/12(金) 10:05:25.59ID:SQrE3L8/0
>>356
勤務評価システムがどうなってるかは知らんけど、
評価者が一人だけって事でもないだろうし、
外資系だから社風としてのバイアスはある程度排除されてると思うんだけどね。
老舗企業ならまだしもこのざまさんだから評価自身がコリポレに影響受けて女性有利になってると思うが
それを踏まえてこの結果だと男女結果平等主義者にとっては絶望的だよね。
0374名無しさん@1周年
垢版 |
2018/10/12(金) 10:05:44.52ID:ee2vJhKp0
そもそも今の日本の女性社会進出のルーツって、旧財閥系大手が社員に嫁とるために事務職を中心に女を採用した流れじゃん?
お茶くみや寿退社とかオツボネ様って言葉もその残滓だし。

もとは事務職も男性ばっかよ。戦後の白黒写真のころなんて。それでもその頃だって男性だけでも仕事にあぶれてたんだから。
椅子取りする人間が女性含めて倍になっても、結局基礎体力とスペックでしょ。そこで男女で公平にってのが論理的じゃないだろ。雇用する側からしたら。
0375名無しさん@1周年
垢版 |
2018/10/12(金) 10:06:06.44ID:S0rY02rF0
つまりあれだろ人間の方がAIより判断力がなく劣ってるけど
それを認める判断力すらないってこった
0377名無しさん@1周年
垢版 |
2018/10/12(金) 10:06:29.63ID:ZLeyxCXUO
人間が不文律の中で女子大卒を不利に扱うなら差別とは言われないからな
アルゴリズムの傾向として見える化されちゃうとマズいよね
0378名無しさん@1周年
垢版 |
2018/10/12(金) 10:07:27.04ID:P9UlESO10
AIがなぜ減点対象にしたのかその原因が分からなければ本当に女性差別のバイアスがかかっていたのか分からないと思うが?
0379名無しさん@1周年
垢版 |
2018/10/12(金) 10:07:52.82ID:GhzLzS9c0
>条件を中立なものとして判断するように変更を加えた
それも結局は手心じゃん
絶対的な公平なんかありえない
0380名無しさん@1周年
垢版 |
2018/10/12(金) 10:08:04.95ID:BeHcgiHS0
仕事の分野が違えば別の結果も出るだろ
0382名無しさん@1周年
垢版 |
2018/10/12(金) 10:08:30.76ID:JvGHyIsa0
>>1
女子大卒は減点のどこが差別?
女子大のレベルは低いんだから減点当たり前だろ
0383名無しさん@1周年
垢版 |
2018/10/12(金) 10:09:37.64ID:9i8GF10X0
>>369
そう
突き詰めれば、何を持って「差別」と判断するかをきちんと決める人間側の問題
そこがイイカゲンだから、差別だ、いや能力で選んだ結果だという平行線になるわけで
0384名無しさん@1周年
垢版 |
2018/10/12(金) 10:10:30.14ID:CZjgfBIT0
>>105

汚らしいエラ張りブサイク整形レイプ民族チョン。
整形なしには人前に出られないほど醜悪なパンスト朝鮮顏をしてるくせに、
日本人のふりをして性犯罪を犯しまくりやがって。

朝鮮民族は、歴史的によそ様の国でも凶悪な性犯罪を繰り返してきたゴミクズ民族。
東南アジアの女性たちに最も忌み嫌われている。
ベトナムでは朝鮮人による連続強姦で生まれたライダイハンが大量発生して社会問題になっている。

日本人女性たちは戦中も戦後も、朝鮮人による性犯罪に苦しんできた。
いまも日本人女性を汚しまくってるAV男優とAV撮影者のほとんどが在日朝鮮人だ。


●●● 深刻化する在日朝鮮人の性犯罪 ●●●
http://seihanzai.tripod.com
.
0385名無しさん@1周年
垢版 |
2018/10/12(金) 10:10:53.01ID:hzGaVHgg0
何かあった時に決断を下すのは、30代だか位の独身男性が1番的確な判断を下す、みたいな話があるじゃん
そういうのも加味した結果こうなったんじゃないの
0386名無しさん@1周年
垢版 |
2018/10/12(金) 10:11:15.15ID:8HocNVvo0
男の方が応募が多い=振り分けるサンプルパターンが多い=適性職が多い=男を振り分けるほうがベストマッチパターンになる

能力による判断じゃなくて母体となる応募者を軸にして採用基準にしてしまったわけだ
単純に最短経路を求めるだけのAIじゃ上手くいかないというのがよく分かる
0387名無しさん@1周年
垢版 |
2018/10/12(金) 10:11:54.69ID:mak7x/1o0
>>359
例えばある企業のデータを放り込んだAIは200時間残業でコキ使えって結論を出すだろうが
それでうっかり過労死させたら大問題になって後々大損する
そういう所をAIは加味できない

貰ったデータ以外は見れないから外の社会は知らないからね
学者さんの机上の学問と揶揄されるケースと同類
0388名無しさん@1周年
垢版 |
2018/10/12(金) 10:14:03.70ID:8HocNVvo0
>>385
そんな考慮するようなAIって漫画や映画じゃあるまいし
0389名無しさん@1周年
垢版 |
2018/10/12(金) 10:14:31.94ID:fAGUx8p90
学習させたデータが偏ってたからAIも偏った思考に行き着いたと。それ最初に気を付ける所でしょうにw
0390名無しさん@1周年
垢版 |
2018/10/12(金) 10:14:58.09ID:wXLr6PI60
>>319
経験上だけど
女性は仕事する上で
普通なら相手が〇〇でしかるべき(だから私は悪くない)
に陥りがちな気がする

問題を解決する事、仕事を前に進める事より「自分の正当性を確保する・認めさせる事」が優先される的な

まあ業種や会社によって違うかもしれんけどね
0392名無しさん@1周年
垢版 |
2018/10/12(金) 10:15:48.15ID:Md2ZH+8L0
女は役に立たないって結果にならないようにするために性別を学習データから除外しても
女は役に立たないからな結果が出てしまったって事だろ

もう学習も選考も男女分けてやればいいじゃん
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況