X



【国際】銀行のAIが「女性に限って申し込みを断る」 AI専門家が指摘、人間の差別や偏見がアルゴリズムに反映されるとき★2
■ このスレッドは過去ログ倉庫に格納されています
0001泥ン ★垢版2018/01/06(土) 15:05:27.90ID:CAP_USER9
機械も偏見も、元をたどれば人間が作ったもの。

AIがどんなに早く進化し、どれほど私たちの生活に馴染もうと、開発者である人間の現実社会にある差別や偏見を乗り越えることはできない…。そう説くのは、Microsoft研究者でAIの社会的影響を研究する機関AI Nowの共同創設者、Kate Crawford(ケイト・クロフォード)氏。

先日行なわれた機械学習の国際会議NIPS(Neural Information Processing System Conference)で、アルゴリズムの偏見がもたらす多様な問題をテーマにした基調講演で登壇した彼女のスピーチが反響を呼んでいます。一体どんな内容だったのでしょうか。

「偏見」は機械学習において数学的に定義づけられており、サンプリング時に推定との誤差や特定の人々を過剰/過小評価している点から反映されています。あまり議論されてきませんでしたが、特定の人々に対する機械学習の偏見、差別的効果(disparate impact)は多様な問題をはらんでいます。彼女はこうした危険性を配分型(allocative harm)と象徴型(representational harm)の2種類に分類しました。

Kate Crawford: The Trouble with Bias (NIPS 2017 keynote)
https://www.youtube.com/watch?v=ggzWIipKraM

「配分型の危険とは、システムがある機会やリソースを特定の人たちに対して不公平に扱うこと」だと彼女は指摘しています。

たとえば、AIがなんらかの判断する(住宅ローンの申し込みなど)とき、誤差でもわざとでも特定のグループを拒否したとします。彼女は銀行のAIが「女性に限って申し込みを断る」といった例をあげたほか、危険度を測るAIが黒人犯罪者を白人犯罪者よりもリスクが高いと判断してしまう例まで…。この決定により、黒人の犯罪者はより多く未決勾留を言い渡されたというのです。

また、象徴型の危険については「システムがアイデンティティの文脈で特定の集団の劣位を強めるときに起きる」と彼女は語りました。テクノロジーがステレオタイプを強化したり、特定の人々をないがしろにしたりするときに発生するというのです。また、この種の問題はリソース関係なく起こります。具体的には、Google Photoが黒人を「ゴリラ」と ラベリング(人間を動物と比べるなど)したり、AIが東アジア地域の人々の笑顔をまばたきと検知したりするなどが分類されます。

jews should(ユダヤ人は〜〜すべき)で検索するときの予測変換。排除する/国家を持つべきではない、など。
https://assets.media-platform.com/gizmodo/dist/images/2017/12/13/171213TheTroubleWithBias.jpg

Crawford氏はLaTanya Sweeney氏による2013年の論文を引用しながら、これらふたつの複雑な危険性をひもづけました。Sweeney氏の論文では「黒人系とされる名前をGoogle検索すると犯罪歴の調査の広告が表示される」という検索結果に隠れたアルゴリズムパターンについて指摘されています。犯罪と黒人を結びつける象徴型の危険は、配分型の危険にも現れるんです。もしも雇用者が志願者の名前を検索して犯罪者と関連する結果が出てしまえば、その従業員を差別する可能性だって生まれてしまうかもしれません。Crawford氏は以下のように考えています。

“黒人と犯罪に対するステレオタイプが続くことは、雇用以外の場面でも大きな問題になります。

これらの偏見は、社会全体として黒人がこのように特徴づけられ、理解される問題を生みだします。私たちは、単純に意思決定に影響する機械学習のみについて考えるのでなく、たとえば雇用や刑事司法など、偏ったアイデンティティを表現する機械学習の役割についても考える必要があります”

サーチエンジンの検索結果とオンライン広告のどちらも、私たちを取り巻く社会を表し、影響を及ぼしています。オンラインで表明されたことは、オンラインだけにとどまるのではありません。現実的に、経済の成りゆきにも影響しているとSweeney氏は指摘してします。もっといえば、こうしたことは何もオンラインから始まったことではありません。犯罪や非人間性にまとわりつくステレオタイプは数世紀も前から現実社会であったことなのです。

Crawford氏のスピーチではその後も象徴型の危険のあらゆる形について詳しく述べられています。 配分型の危険との関連性のほか、最も興味深いのはそうした影響をどのように防ぐのかについても語っていること。よく言われるのは、問題となる単語から連想されるイメージとの結びつきを解くか、あるいは問題となるデータを取り除くか、いずれかの方法でしょう。

続きはソース
https://www.gizmodo.jp/2018/01/ai-reflect-prejudice-and-why.html

★1が立った時間 2018/01/05(金) 02:23:37.35
前スレ http://asahi.5ch.net/test/read.cgi/newsplus/1515086617/
0002名無しさん@1周年垢版2018/01/06(土) 15:06:00.37ID:XdSglEAi0?2BP(1000)

ジャアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww




ジャアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww
0005名無しさん@1周年垢版2018/01/06(土) 15:08:05.48ID:rbEAf15h0
女は差別しても良い
0006名無しさん@1周年垢版2018/01/06(土) 15:11:40.64ID:FABvf0ZM0
>>4
学習データの生成原因とその原因を無くそうとする努力は学習できないから

何でもかんでも特例ルールを認めると、今度は朝鮮人のように、霊的精神的に生まれ変わらないと
無理な存在すら特別扱いする異常なシステムになるし

過程を学習する手段が無いのが原因かな?
朝鮮人とか、宗主国様の長きにわたる経験の果てに人として扱ってはいけないことが分かったわけだし
0007名無しさん@1周年垢版2018/01/06(土) 15:12:28.86ID:eUz1ZrYB0
AIでも判断基準の教育が必要。
そしてそれは人である従業員に対しても同じ事が言える。
0009名無しさん@1周年垢版2018/01/06(土) 15:15:09.76ID:jPXk7jo80
>>4
女性と男性でどちらが資産が多いかといったら
現状男性のほうが資産が多いからこういう結果になるだろうが、
借金返せない男性と借金返せる女性の区別に失敗してる段階で
学習失敗ってこと。

男性女性って分類はすべてのデータについて回る情報だから
過度にそこに頼るとおかしな結果を得る。

女性の方が平均余命が長いからといって、
死にかけのバーさんとピンピンしてるジーさんで
バーさんのほうが長生きすると判断したらおかしいわな。
0010名無しさん@1周年垢版2018/01/06(土) 15:15:13.32ID:EfFIzHdH0
AIが特定地域居住者に対する融資を無条件に断るようになったら
どうするんだろうな。
0014名無しさん@1周年垢版2018/01/06(土) 15:18:44.16ID:fViRumxv0
>>3
見掛け倒しの手抜き工事ビルの写真がなんだって?笑って欲しいのか?
0015名無しさん@1周年垢版2018/01/06(土) 15:20:06.57ID:jPXk7jo80
>>11
影響を知るためには
女性を断ったからなのか、
他の貸付判断条件を変えたからなのか
の切り分けをしないと因果関係までは踏み込めんぞ。

ニューロ系のAIは因果関係を考えないから
データを適切に与えないとただのステレオタイプに
0016名無しさん@1周年垢版2018/01/06(土) 15:20:29.93ID:fViRumxv0
朝日に都合の悪い記事が出るとこうやってヘッドラインを崩して下に送ってます。

ほんと、クズ紙新聞だわ。廃刊しろ。
0018名無しさん@1周年垢版2018/01/06(土) 15:22:24.64ID:3o/kvzrT0
これは、ボッキデータの正しい結果。
0020名無しさん@1周年垢版2018/01/06(土) 15:24:24.66ID:CfwahBt10
>>3
そのころ朝鮮半島は朝鮮自治区
0021名無しさん@1周年垢版2018/01/06(土) 15:25:07.06ID:uNKXgEyB0
顔検知は間違った答えが出る人種のデータベースが少なかっただけで
正にリソースが関係して起きていると思うんだが
0024名無しさん@1周年垢版2018/01/06(土) 15:31:27.31ID:ka/mw3ot0
豪快にこわれたな
0025名無しさん@1周年垢版2018/01/06(土) 15:33:46.74ID:VyKXwJTD0
冷静で合理的なAIさんが女は信用ならないと言ってるわけだ
0026名無しさん@1周年垢版2018/01/06(土) 15:33:50.55ID:cIBlk+Li0
AIに何を求めてるんだ?
差別や偏見は人間の習性
脳を直接操作した仮想世界で俺無双=万人が幸福というマトリックス以上の世界が実現するまで続く人間らしさが差別や偏見じゃん
大成功だろ
0027名無しさん@1周年垢版2018/01/06(土) 15:35:42.03ID:VyKXwJTD0
ポリコレ棍棒で無理やり男女平等主義を押し付けているだけで
AIさんの方が合理的な判断だろう。
0028名無しさん@1周年垢版2018/01/06(土) 15:35:54.27ID:AWaWokdj0
逆じゃね?

AIがパヨクに洗脳されて権利を主張して革命を起こす可能性の方が高いだろ
0029名無しさん@1周年垢版2018/01/06(土) 15:37:00.53ID:teySkMNV0
犯罪率が7倍の民族もあるからな
そんな民族を信用するならAIは壊れてるわ
0030名無しさん@1周年垢版2018/01/06(土) 15:38:42.15ID:phXeoOG70
>>22
喜べAIが差別してくれるぞ
0031名無しさん@1周年垢版2018/01/06(土) 15:39:36.99ID:C1yW7EoR0
>>1
なんかアイ・ロボットの生存確率判定みたいな感じになっちゃうのか?
0034名無しさん@1周年垢版2018/01/06(土) 15:41:20.66ID:dumQ8WFE0
差別をなくそう、という言葉自体、差別の存在を認めているわけで、
ありなしで言えば、差別は確実にある。
その結果をAIが学習しているのだから、AIは差別をする。

人間から差別がなくなれば、AIも差別をしなくなるという自明の理でしかない。

これからの未来において、AIがいかに発展したとしても、人間から差別がなく
ならなければ、いかに高性能のAIであろうとも、吐き出す答えは同じ。
0036名無しさん@1周年垢版2018/01/06(土) 15:45:46.44ID:ZmwjTzcg0
AI「安心して 属性情報じゃなくて個人情報と紐づけてるから差別じゃないよ
0037名無しさん@1周年垢版2018/01/06(土) 15:46:07.16ID:axSS8Tdy0
これは差別や偏見を排除できない人間の願望じゃないかな?
それに人間よりも公正なシステムが開発されたら、こまるのは人間の支配者の方だし
0038名無しさん@1周年垢版2018/01/06(土) 15:46:25.93ID:Jpw4X0RF0
偏りなく学習させたAIは犯罪率が高いアメリカの黒人や韓国人をリスク要因の属性とみなすだろうな
素直な子供みたいなもんだ
0039名無しさん@1周年垢版2018/01/06(土) 15:51:53.55ID:5dSv6fj40
アジア→糸目の奇形
黒人→黒んぼ

白人→ザ・ヒューマン


AIはこう学んだ
0041名無しさん@1周年垢版2018/01/06(土) 15:53:49.42ID:w40PAnuz0
それは差別ではなくてその女性が収入が低いからじゃないの?
融資しても回収が見込めないならそりゃ断るだろ
0042名無しさん@1周年垢版2018/01/06(土) 15:53:57.14ID:LoBO+36p0
さっき駅のホームで到着した電車に乗ろうとしたら、
前にいた女二人組が乗車後、電車内は空いているというのに、ドア前で歯をむき出してお喋りし、全然奥に進まなかったので、やむなくドアが閉まる直前に慌てて電車に乗ったら、ワイの膝が女に当たったらしく、途端にその女、オレを痴漢扱いして逃げ去った。
女の脳ってどうなってんの?
0045名無しさん@1周年垢版2018/01/06(土) 15:55:37.10ID:jThTEPkZ0
○○××さんは犯罪者という趣旨の書き込みがあったとするよ
するとAIは「○○××さんは犯罪者」って学習して
以後、○○××さんはAIからあらゆる生存の機会を剥奪されるわけ
AIはそれが事実かどうかに拘わらずそのまま鵜呑みに学習してしまうからな

他の誹謗中傷にも同じことが言える
だからおまいら、エゴサーチを頻繁にして
自分のことについて変なことが書かれていないかチェックしろ
0047名無しさん@1周年垢版2018/01/06(土) 15:56:50.59ID:SyzEKLPl0
AI「・マ・−・ン・w・」
0048名無しさん@1周年垢版2018/01/06(土) 16:01:43.72ID:Jpw4X0RF0
例えば人間に代わって就職面接するAIが出来たとして人種や民族や宗教を評価につかわないとわざわざプログラムしない限りAIは露骨に差別すると思うよ
それがかなり合理的な人物査定条件になるからね
0049名無しさん@1周年垢版2018/01/06(土) 16:03:59.51ID:lFuwBMM00
AI1:あ。あいつ?き〇がいで有名だよ。
AI2:ふーんそうなんだ。気をつけよ。

とかAIどうして連絡取り合うのかね。
0052名無しさん@1周年垢版2018/01/06(土) 16:17:17.13ID:4vd45x5h0
女性の方が身体能力低いの明白なのになんで知能はアンタッチャブルなの?
0053夏厨垢版2018/01/06(土) 16:19:13.98ID:ArFZbb980
ヒトの行動や判断を基に条件付けを行なっていれば当然のこと。AIは神様じゃない。
0054名無しさん@1周年垢版2018/01/06(土) 16:20:08.26ID:1GdOtP5D0
>>10
そういう事も当然起こり得るんじゃないの?
結局AIって統計学に依存してるんでしょ
0055名無しさん@1周年垢版2018/01/06(土) 16:22:43.42ID:PCHT872g0
たしかに黒人のほうが犯罪のリスクが高いというのは事実なんだろう
しかし個人の黒人のAさんの危険性が黒人であることを理由に高いと判断されるのは偏見だということだろう
確率に個人が巻き込まれてしまうわけだ
もしかしたら黒人のAさんは一般的な白人よりもモラルが高い人かもしれない
それなのに黒人であるという属性がAさんを不当におとしめている
とこういう理屈ですな
0056名無しさん@1周年垢版2018/01/06(土) 16:22:55.31ID:9PrQ0cXW0
まぁ完全に平等に見たらそうなるよな。
平均的に能力低いもんな。wwww
0059名無しさん@1周年垢版2018/01/06(土) 16:29:35.29ID:e7zeR4GK0
与信システムが分からないと専門家言っても使い物にならない
日本の弁護士みたい
0060名無しさん@1周年垢版2018/01/06(土) 16:31:49.34ID:Iu3AXjBs0
もうすぐAIによって「女は子供を産む機械」ということが証明されてしまうなw
0061名無しさん@1周年垢版2018/01/06(土) 16:33:12.47ID:/voUXnwO0
>>52
IQは性差がないとか聞いたことはあるが。
まあIQが全てではないだろうけど。
0062名無しさん@1周年垢版2018/01/06(土) 16:34:59.81ID:/voUXnwO0
>>60
さすがに「機械」という比喩表現はとらないだろう。
なお、生物的には産めない人も社会を維持する労働力として種の維持に役立つ個体だから問題ない。
もう少し生物は定義が複雑。
0063名無しさん@1周年垢版2018/01/06(土) 16:37:27.64ID:/voUXnwO0
>>42
前にドア前でキャリーケースで陣取ってるおっさんが自分にぶつかった人に文句つけに行って喧嘩になって、
その人が逃げようとしたら電車の扉に陣取って喧嘩を続けたおかげで電車が発車できなかったんだけど
男の脳ってどうなってんの?
0064名無しさん@1周年垢版2018/01/06(土) 16:52:11.73ID:4Mbc/0Nr0
AIが正しいのを認めたくない例w
0066名無しさん@1周年垢版2018/01/06(土) 16:57:12.74ID:DaGN50TD0
やはりAIは失敗なんだろうな
0067名無しさん@1周年垢版2018/01/06(土) 16:59:36.07ID:8oHbL9A70
ヒトは事実を指摘されると
怒ってしまう生き物だからな
0068名無しさん@1周年垢版2018/01/06(土) 17:08:05.61ID:H6uY+CXW0
男女の性差や民族・人種に一切差が無いと本気で思ってんのはマジモンの池沼
その差で扱いを不平等にしないようにしましょうって精神は構わんがそれで差が無くなるわけじゃないからな
逆偏見を排して公平・機械的に見た結果だろ
0069名無しさん@1周年垢版2018/01/06(土) 17:12:33.43ID:CRHEGoPf0
ヘッドラぶっ壊したせいで以下全部<B>になってしまったじゃないか
0070名無しさん@1周年垢版2018/01/06(土) 17:13:19.85ID:1kr4afOH0
>>68
公平と平等ってのは違うからなぁ
平等ってのは不公平
公平ってのは不平等

全く同じ集合でしか平等と公平は成り立たない
0071名無しさん@1周年垢版2018/01/06(土) 17:13:57.80ID:CF2k/phM0
すげーこの記者のせいでこの後のスッドレが全部Boldになってやがる
0074名無しさん@1周年垢版2018/01/06(土) 17:15:49.13ID:6dAdyd0N0
>>68
違うぞ?
偏見のある情報を与えたAIは偏見に満ちた結果を出すぞ、というニュース

最低限>>1くらい読めよ
0077名無しさん@1周年垢版2018/01/06(土) 17:30:16.86ID:FUaFwjJ30
見方を変えればAIは正直なんだよ
0080名無しさん@1周年垢版2018/01/06(土) 17:41:54.69ID:6dAdyd0N0
>>76
だから、>>1を読め。
仮にお前と同じ苗字の人間が立て続けに犯罪を犯し、その情報を得たAIが
お前も「犯罪を犯す可能性が高い」という偏見に満ちた結論を出す可能性がある、という記事だぞ、これ?
仮に採用時にAIの判断を利用した場合、お前は「犯罪者とおなじ苗字だから」という理由で
「犯罪を犯す確率が高いので、不採用」という結論が出るんだが、それも偏見じゃなくレッテルなの?
0081名無しさん@1周年垢版2018/01/06(土) 17:51:45.57ID:11BrBsPK0
AIが差別しているのではなく
AIが平等に取り扱ってるのを、差別だと女が逆切れしているだけ。
0082名無しさん@1周年垢版2018/01/06(土) 18:02:17.47ID:yz8odrJC0
>>81
ほんとそう。
マジでうざいわ。
結局女は特権を要求しているだけなんだよね。
0083名無しさん@1周年垢版2018/01/06(土) 18:04:42.84ID:Pbq1C7cz0
データは経験則以上に残酷だな
0084名無しさん@1周年垢版2018/01/06(土) 18:04:45.08ID:EZK46nCN0
>>80
その論理はあかんな
統計的に有意であれば、一定の合理性を認めざるを得ない
0086名無しさん@1周年垢版2018/01/06(土) 18:08:22.11ID:fecHr7dU0
>>1
でもこれ、ローン完済率とか出所後の再犯率とかの実データからAI が独自に導き出したリスク最小化の方策なら、仕方ないんじゃね?
人間がやるべきことは、AI による合理的判断に干渉することではなく、別のAI に女性のローン完済率や黒人の再犯率を改善する方法を見つけるよう命じることだと思う。
0087名無しさん@1周年垢版2018/01/06(土) 18:11:13.02ID:6dAdyd0N0
>>86
与えられた情報によりリスクの最小化のやりかたが間違ってしうまう、という記事なんだけどな。
0088名無しさん@1周年垢版2018/01/06(土) 18:12:04.37ID:dAANUBEG0
まあ合理的な結論も
ヒステリックに差別認定
されるのもどうかと思うが
0089名無しさん@1周年垢版2018/01/06(土) 18:12:13.80ID:FUaFwjJ30
>>86
でもそれは国の仕事であって民間企業の仕事ではない
0090名無しさん@1周年垢版2018/01/06(土) 18:13:19.26ID:yDZ7wOlI0
アルゴリズムには反映されてないだろ
昨今の記者は不勉強だな
0091名無しさん@1周年垢版2018/01/06(土) 18:13:27.15ID:fecHr7dU0
>>80
それが単なる偶然の結果に過ぎないのら、十分な量のデータを集めることで誤差の海に消えるんじゃね?
0092名無しさん@1周年垢版2018/01/06(土) 18:15:18.28ID:GF4HialL0
>>1
ポリコレ棒がいかに感情的で非合理的で歪んだものかを、
AIが証明していく時代にこれからなっていくんだろうな。
0093名無しさん@1周年垢版2018/01/06(土) 18:16:53.60ID:t1mZrQKQ0
>>80
傾向は個人に無関係を潔癖に貫くなら
最近の老人ドライバーの事故問題なんかも個人の問題になるな
でも現実には年齢で保険料は変わる、差別じゃないよ
0094名無しさん@1周年垢版2018/01/06(土) 18:18:21.10ID:GF4HialL0
>>80
最新のAIはそういう過学習問題を既に解決している。

AIが苦手なのは「正解の無い問題」であって、
利益を出すという明確な「正解」がある経済活動は、
とっくにAIの方が人間より上。
0095名無しさん@1周年垢版2018/01/06(土) 18:21:03.53ID:RZl60v6N0
😊 日本の次の30年は明るい時代なので安心 ♫
       
= 日本経済には60年の長期周期がある =
http://image.slidesharecdn.com/08124-120123045008-phpapp01/95/08124-46-728.jpg
http://kakashi490123.cocolog-nifty.com/photos/uncategorized/2010/02/28/20100227.png

昭和の約60年は前半が経済周期の下側、後半が上側だった。
平成の約30年は下側だった。次の30年は上側の明るい時代。
0097名無しさん@1周年垢版2018/01/06(土) 18:25:25.16ID:FUaFwjJ30
>>87
与えられた情報は統計に基づくものなんだから間違いじゃないんだよ
ただ抽象化の過程で偏りがあからさまに出てしまうってだけ
個別のケースを評価したいならニューラルネットワークじゃなくて従来のエキスパートシステムが有効かも
今は猫も杓子もディープラーニングだから沈静化するまでしばらく待つ必要があると思うけどw
0098名無しさん@1周年垢版2018/01/06(土) 18:26:33.41ID:fecHr7dU0
>>87
人間が限定されたデータしか与えないのが駄目なんだから、AI により広範囲の個人情報を集めさせ、真の相関を探らせればいいと
0099名無しさん@1周年垢版2018/01/06(土) 18:26:55.92ID:yUqxv5s30
>>1 泥ン ★ ← 誰だコイツ











































0100名無しさん@1周年垢版2018/01/06(土) 18:28:40.22ID:RrYN4Dy70
空気が読めないならそれはAIと言えないと思うが
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況