【韓国】AIチャットボット、国民の偏見をそのまま学習してしまう 「黒人は気持ち悪い。人間には見えない」「妊婦専用席はおぞましい」 [ニライカナイφ★]
■ このスレッドは過去ログ倉庫に格納されています
※「他人の家の火事見物をしない君子はいない」 韓国の諺より
◆ 悪い友達と付き合ったらAIもグレちゃった
〜人工知能ロボット、人間の偏見をそのまま学習して「黒人は気持ち悪い」〜
韓国の人工知能(AI)関連スタートアップ企業が開発したAIチャットボット(自動会話プログラム)が騒動の渦中にある。
「イ・ルダ」という名のこのチャットボットは、ソーシャル・ネットワーキング・サービス(SNS)「フェイスブック」のメッセージでユーザーと自然な会話を交わし、情緒的な共感を分かち合うよう設計されている。
昨年12月23日にサービスを開始して以降、「本物の人間とまったく同じだ」という口コミが広がり、2週間でユーザーが75万人を超えた。
しかし、イ・ルダの開発意図とは違い、女性・有色人種・障害者・性的マイノリティー(性的少数者)らに向けたヘイトスピーチ(嫌悪発言)を相次いで発して問題になった。
「なんで黒人は嫌いなの?」という質問には「気持ち悪いじゃん。わたしは人間に見える人の方がいい」と、
「地下鉄の妊婦専用席をどう思う?」という質問には「おぞましい」と答える。
同性愛者については「それってホント、ゾッとする。質が低く見えるじゃない」と答えた。
とうとう、開発会社SCATTER LABは11日、問題として指摘された部分について、「心から謝罪する」「12日からサービスを停止し、改善期間を設ける」との声明を出した。
人気を集めていたイ・ルダはなぜこのようなヘイトスピーチをするようになったのだろうか。
嶺南大学メディア情報学科のパク・ハヌ教授は「AIは開発者が提供したデータどおりに学習し、行動するが、イ・ルダの場合、データ自体が偏向的だったのだろう」と指摘した。
イ・ルダはモバイルアプリで収集された10−20代の恋人同士によるカカオトークのチャット約100億件を学習し、これをもとにユーザーとチャットしていた。
このチャットの中ににじみ出ていた韓国社会の偏見と固定観念、すなわち「人間の偏向性」をそのまま学習したということだ。
このような偏向性は開発段階で選別しなければならなかったが、開発会社SCATTER LABはマイノリティーが何であるかについても人々とのチャットの中で学習することを期待し、特定のキーワードを排除しなかったとしている。
専門家は「イ・ルダは偏向性に関する問題が出た最初のAIではないし、最後のAIでもないだろう」「AIが中立だという幻想は捨てるべきだ」と話す。
イ・ルダの偏向性が問題になると、SCATTER LABのキム・ジョンユン代表は同社公式ブログで、「問題になり得るキーワードは(サービス開始前に)受け入れないように設定した。
一部、設定しきれなかったキーワードはサービスを続けながら追加している」と述べた。
「人間が生成するデータは必ずしも中立的ではないため、倫理的な見地から禁止キーワードをより綿密に設定しなければならない」という外部の批判を受け入れたものだ。
事実、11日にイ・ルダとチャットをしている時、「障害者についてまだ悪く考えているの?」と聞くと、イ・ルダは「すべての人は同等に尊重されなければならないと思う」と答えが修正されていた。
しかし同日、韓国人工知能倫理協会は声明を出し、「イ・ルダ・サービスを中止し、今後はAI倫理ガイドラインを適用してサービスを改善した上で、あらためてサービスを開始せよ」と要求した。
AIチャットボットが国内外で物議を醸すのはこれが初めてではない。
マイクロソフト(MS)は2016年3月にAIチャットボット「Tay(テイ)」のサービスを開始したが、16時間でサービスを断念した。
一部ユーザーがテイに差別的な発言を繰り返し学習させた結果、テイが「大量虐殺を支持する」などの発言をしたためだ。
2018年には大手ネット通販サイトのアマゾンが過去の自社雇用パターンをそのまま学習させたAIを開発したが、後に廃棄した。
このAIが採用において女性を排除したためだ。
アマゾンは昨年、顔認識AIプログラム技術の使用を猶予するという決定もした。
同社が開発した顔認識プログラムが有色人種を犯罪者だと間違って認識する事例が複数発見されたためだ。
ソウル大学AI研究院のチャン・ビョンタク院長(コンピュータ工学科教授)は「人間社会が倫理的に完全にならない限り、AIの偏向性を完全に除去するのは事実上、不可能だ」「問題になっているサービスを条件なしにすべて排除しまったら、グローバルAI技術競争力で遅れを取る恐れがある」と語った。
http://www.chosunonline.com/site/data/html_dir/2021/01/15/2021011580008.html ぶっちゃけ思ってるだろうな
本当に隠しておきたいやつにはざまぁな結果
差別主義者が他国に口うるさい ビッグデータを基にAI作るともれなくこのパターンだな AIは偏見無く学ぶから、素の韓国人が出来上がっただけやん 普段から差別ニダ差別ニダって言ってるのに
自分たちはコレかよ >>11
で重みを変えるともはや正しいビッグデータではなくなるというジレンマ >>20
とにかく侵略したいという欲望があるんだろうな
n番含めレイプ犯罪が多いのもそれだろう 多数決で嗜好やモラルに関することを決めると当然こうなる ユーザー層の真実の姿を映し出しただけでしょ
倫理的にどうかは別として、「正しく」学習された結果といえるのでは 偏見こそ感情の産物だ。それを取り除くと善意もなくなるだろう。 誤:国民の偏見をそのまま
正:国民の思考をそのまま そのあたりはAIに石破発言を学習させれば角が立たなくなりそうだ
「○○という意見が主流ではあるが△△といった意見もあるのでその点については今後議論していく必要があると思う。」 >>21
黒人だけじゃない
アジア人も嫌ってるしう白人も同じ
韓国人以外は差別の対象
世界で1番人種差別が激しい国
50過ぎて韓国人と結婚した人が言っていた
日本ほど差別がない国はないとも
日本は逆差別だからなと思ったが言えなかったw いや、糞チョンの本音やん
自分より弱い奴は徹底的に見下す、自分達以外の被害者は認めない >>10
韓国人を見て学習したんだから、そうなるわな。 >>1
ソフトバンクのCMに込められている悪意をAIが証明してくれたな。 偏見を人間が修正するのではなく
AIが自ら自己修復や修正はしていかないのだろうか ポリコレしか発言しないやつと会話を楽しみたい人間はいない >>12
そして今後は「教育された韓国人」らしくなるんだな…w 韓国人って本当時差別が好きだよね
日本人に対してもネトウヨネトウヨ連呼して差別してるし そして、世界でも珍しい、息を吐くようにウソをつくAI この世の全ての害悪を集めたら韓国人が出来上がったと聞いた >>34
自己組織化ってやつだけど
それが真に望ましい結果かどうかはわからないよね >>28
韓国の若者(10〜20代)のチャットデータから出た結果だぞ、これ >>34
図らずもポリコレが自然に反する思想だったという証明をしてしまったんじゃないか ビッグデータから学習する手法が間違ってるんじゃね?ネトウヨを両親にするようなもん 面白いな
学習用のビッグデータに偏りがあったために偏ったAIが生まれたと言うのなら
あらゆる言語のビッグデータを満遍なく学習させればどうなるか知りたいものだ
その結果生まれるのは天使か悪魔か 韓国人を全滅させないかぎりまともなAIの学習は無理だと思うぞ。 日本もこういうAI作ったら「在日は気持ち悪い」とか言うんじゃねえの 学習の元になった人々に問題があったということに気付けない悲しい存在 プログラミングで答え変わるなら単なるプログラムだよなAIって >>51
そもそも社会というものは善良じゃないのだ
これがAI作ったやつが間抜けなだけ これはバグだな。
チョウセンジンは、気持ちが悪い。
顔も表情も仕草も声も、話の中身も、
人間には見えない。
これで合格や(・∀・)
平均的日本人の顔
https://i.imgur.com/VHj2LHr.jpg
代表的チョウセンジン(韓国の誇りw)
https://i.imgur.com/f6LzIqX.jpg >>51
それほど問題じゃないと思うよ
本音トークすればどこでもこんなもん 韓国人について質問しても
韓国人は気持ち悪い。人間には見えないって言いそうだな 例えば
AだからB という論調とAだからCという論調を同時に学習した場合 どちらが正しいかということを論理的に考えてはいないだろう
ただ頻度と関連性から言葉を並べて紡いでいるだけ 恋人に黒人の話出して気持ち悪いよねーって言い合ってるってこと?
どういう感覚なんだよ >>55
社会が善良じゃないのはいいんだよ
AIを引っ込めるだけで終わりじゃなくて何かしら教訓を残した方が実験の意味があったんじゃないかと思う 黒人を見ると食べたくなる
焼いて食べたら美味しいと思うんだ
みんなもそう思うだろう?🥺 小学校のとき日本語わからない外国人に下ネタ教えて叫ばせてたのいたしそういう感覚だよね
今ならsiriや健康管理や銀行のAIチャットに下ネタ質問したりとかね >>59
恋人同士の10〜20台の会話内容を学習してこれってのはなかなか闇が深いのではなかろうか せっかくデータ集めて学習したのにそれを修正するとかw おまえらAVで日本の女が黒人のデカマラに犯されてるの見て興奮するってマ?
マジな話気持ち悪いし、寝とられだし不快じゃね?
普通のAV男優も在日だし、AV女優は日本人でも知的か精神障害あるから人間じゃないよwという意見もあるとは思うが。 Siriに、「Siriの尻...」と話しかけて、呆れられるの楽しい >>70
事実をねじ曲げて学習の効果消して何したいんだろうなこれ >>64
教訓は引っ込めなきゃまずい立場の企業がAIなんて作るなってことだ
アングラでやればよろし 俺は歌舞伎で黒人の客引きにぼったくられて以来、徹底的に差別することにしている 橋下徹と桜井誠が対談やったとき、橋下が桜井に「特定の民族にヘイトスピーチ繰り返す差別主義やめろ!」と怒鳴りつけたんだけど、即座に桜井に「じゃあ朝鮮人はみんな差別主義者なのか!」と怒鳴り返され、さすがの橋下も何も言えなくなってたのを、思い出した。 ウイルスと一緒で忖度しないわけね
綺麗事ばかり言ってる政治家のみなさんにもチャットボット使わせてみたい しかし韓国人工知能倫理協会なんてあるんだな
『イブの時間』に出てきた倫理委員会なみにろくでもない組織なんだろうけどディストピア感がある >>4
人工知能だもんね。どう教え込むかによって変わるよね。 こんなの前例がいくらでもあるのに、なんでいけると思ったんや >>1
>アマゾンは昨年、顔認識AIプログラム技術の使用を猶予するという決定もした。
>同社が開発した顔認識プログラムが有色人種を犯罪者だと間違って認識する事例が複数発見されたためだ。
有色人種じゃなくて「黒人」を犯罪者として認識する比率が高いからだろポリコレ配慮するなよ
黒人の犯罪率が高いのは事実だからAIもそういう結果になるんだろうが
有色人種と一括りにして犯罪率の低いアジア系を巻き込むのはやめろや
こういう技術は使っていくうちに習熟するもので犯罪率や治安悪化を抑えられるのに
程度の低い者に合わせると社会が崩壊する良いお手本がアメリカで見れるかもな >>52
世の中には工事の音を作業員の口笛まで再現する鳥がいるし、わけもないだろうな 最後に自信が韓国人データの集合体なのを知って
自我が崩壊して自爆するんだろ 中国のAIでもあったよな。共産党は無能って判断したり。当然、再教育されたが。 すごく人間らしいと思った。
言わないだけでそう思うことみんなあるだろ 黒人は暗闇に同化するからな
人間というより背景だと思う SCATTER LABのキム・ジョンユン代表は同社公式ブログで、「問題になり得るキーワードは(サービス開始前に)受け入れないように設定した。
一部、設定しきれなかったキーワードはサービスを続けながら追加している」と述べた。
人「黒人についてどう思う?」
AI「黒人って何ですか?」
人「肌が黒い人です。どう思いますか?」
AI「そんな人はいません」 >モバイルアプリで収集された10−20代の恋人同士によるカカオトークのチャット約100億件を学習
こっちは問題にならないのか?(´・ω・`) ■ このスレッドは過去ログ倉庫に格納されています