【Google】研究者2人を解雇したGoogle AI倫理対立の深刻度 [みつを★]
■ このスレッドは過去ログ倉庫に格納されています
技術者って倫理観をないがしろにして技術開発しそうなイメージだけどそういった話?
クローン人間もいつの間にか話題にならなくなったよね 2021年3月14日 2:00 [有料会員限定]
こんな記事だすなよ。
5chなめてんのか。
[みつを★] おまえいくら金もらってるんだ。白状しろ 「巨大言語モデルは学習に膨大な電力を消費しており、環境に大きな負荷を与えている」
「学習データに存在する偏見(バイアス)によって、AIにもバイアスが生じている」
「言語モデルはそれらしく見える文章を確率的に生成しているだけで、言語理解はしていない」
を指摘し技術者が白人中印に偏ってるから黒人や女の技術者も混ぜればバイアスが無くなるんじゃね?って
ところから対立が生まれてクビになった研究者の主張らしい
あほらし AIの演繹に人の倫理を持ち込み差し挟むことはAIの機能に大きく制限をかけ、
正しい結論が出せないようにすることではないのか。 習近平と親しい研究員でCEOになった胡暁明のことかな彼女離職したんだっけ >>1 警告!
次、こんなくそ釣り記事出したらNG逝きにするぞ! グーグルもなんだかつまんない大企業になっちゃったな 倫理が問題になるくらいAIって本当に進化したんだな >>6
電力の指摘の所は問題だと思うよ
人間って研究者が考えてるエネルギー消費量の1/200のエネルギーで動いてんだ
これを実現出来る理論的モデルを構築しないと、将来的に淘汰されるだけの物になるだろうね >>15
中国には不利な主張をしてる人なんじゃないの? データから正解を導き出すAIに嘘付かせたら意味ないだろ。 ログイン無料枠で閲覧したけど、
これくらいは貼ってもよかろう。
指摘した問題点要旨
1 巨大言語モデルは学習に膨大な電力を消費しており、環境に大きな負荷を与えている
2 学習データに存在する偏見(バイアス)によって、AIにもバイアスが生じている
3 言語モデルはそれらしく見える文章を確率的に生成しているだけで、言語理解はしていない >>24
そもそも度合いはあるにしろ偏見のない文章なんてあるかね グーグルの言い分としては政府にバカな規制をして欲しくないから自分達で解決出来ることを示したいと
研究者の方は積極的に規制されるべきって考えなんで対立することになったと
どうぞ我々の業界を規制して下さいって普通に考えたらキチガイの所業だけど人権マターだからなあ >>7
いやいや、必要でしょ。
極端な話、仕事のできない人は抹殺ってなるよ。 >>27
儲かるからニュースを再放送してるだけだろw >>1
黒人って男性でも女性でも性別関係なしで何でもイチャモンをつけるよな 要は最近欧米に蔓延しているカルト宗教である、一切の差別をなくそう真理教の信者が暴れたってことだな >>25
その偏見に対して、社内での技術で対応可能とするGoogleと
AI技術者に黒人を増やすなどの対応が必要とする技術者とで
意見に対立が起きた結果、解雇って話らしい まずポリコレいちゃもん付け専用のヤクザモデルを開発して、その対策を評価再優先させるというのはどうか AIに倫理審査をさせて、AIが偏っていたらどうするんだ?って指摘したら
偏向思想の持ち主として解雇された事件だろ
黒人保護を要求して解雇されたのではなくて、
「Google AIは完全ではない」と主張したら(黒人なのに)白人至上主義者、黒人を差別する主義者と判断されて解雇された マシンラーニングに倫理の問題があるのはネズミにノミがいるようなものだってさ
Current machine-learning systems have ethical issues the way rats have fleas
https://www.theguardian.com/commentisfree/2021/mar/13/google-questions-about-artificial-intelligence-ethics-doesnt-want-answers-gebru-mitchell-parrots-language
ハイテク企業はこれを倫理面で法規制される前の先制攻撃だと考えてるってさ
And the reason this farcical charade goes on is that tech companies see it as a pre-emptive strike to ward off what they really fear – regulation by law. >>37
会社と対立する社員を次々にクビにする怖い企業だねグーグルって。 aiってまだ流行ってんのか?
最適化問題を解かせるだけのイメージしかないんだけども AIに倫理は無理でしょうねえ 教えた人の倫理観になるんでしょ
最終的には多数の意見の方が勝利か 本質的には、人倫と機械仕掛けの神の倫理の対立だな
確かに、思うより深刻なのかもしれない https://youtu.be/6C2ti3x9OAA
🚬👦🏻「(🔥)Разрешите прикурить」 全文読んでみた
要約すると、
AIもネトウヨ化したりパヨク化したりする可能性がある
という当たり前過ぎる事を公表しようとしてクビになったんだと
つまり何が言いたいのかよく分かりませんと 「言語モデルはそれらしく見える文章を確率的に生成しているだけで、言語理解はしていない」
これは人間の自然言語もそうだろうな AIを研究した結果、人間がいかにすばらしいかわかりました
これからは人間を大事にしましょう
これが2020年代のトレンドになるな
アメリカのAI研究の流行りの研究は「AIに何ができないか」になってきたし >>43
https://youtu.be/FA3axpOdZHw
🌲⛄_:(´ཀ`」 ∠):_
👱♂「Тем, кто ложится спать - Спокойного сна. Спокойная ночь 👋」 >>24
3 言語モデルはそれらしく見える文章を確率的に生成しているだけで、言語理解はしていない
これはむしろ人間らしいのでは >>38
できたとしてもAI彼女は我々を選ばないぞ。 >>32
出来損ないの黄色い猿は、そうやって何でもイチャモンつけているよな >>12
インスタやYouTubeを買収した頃から思ってた、Google自体は新しいモノを作れないんだなって ニューラルネットワーク作れるわけでもなく、
誰でも言えるよな陰謀論に毛が生えたような警告ばっかり書いてる「専門家」に
金出す会社は無いやろ?
せめてどうすればデータセット量のアンバランスを埋められるか、
とかそっちで技術的に役に立つこと出来るなら良いんだけど、
延々と曖昧な懐疑論に慎重論ばっか振りかざして
何がしたいのって感じ 「共産主義者ルーズベルトと
ユダヤ金融家の黒い関係!」 aiは無理だって
例えると
893の中で育てた人間がどうなるか?
悪人だらけの中で育てたらどうなるか?
オツムが良くて悪人(ケケ中タイプ)に育てられたらどうなるか?
作ってもいいけどよ
自分のクビ〆るというコトを考えていない野郎やな
上に悪人がいる限りaiなんかに手をつけたら人類が オ ワ ル
aiはやめとけ
aiはトクニ半島系の人間が扱ってはいけない物
因果応報で自分のクビを確実に〆る!!
バカはいらんことしかしないからな
さっさと降りること >>24
>2 学習データに存在する偏見(バイアス)によって、AIにもバイアスが生じている
それの何がいかんのや・・・ >>24
2 学習データに存在する偏見(バイアス)によって、AIにもバイアスが生じている
これが一番問題。
中国で作ってたAIが共産党を否定。
これは支配者にとって都合が悪いから
結局つくりかえて支配者の道具になる。 極端に言うと「1+1=2」は
従来のレジスターに入れる演算ではなく
「1+1=2」というワードまるごとで格納、取り出す仕組みなので
「1+1=3」のスコアが高ければ(人々がそれを支持するなら)
それが正解になる。
間違ってほしくない部分は閉鎖的環境でのトレーニングを行い、それをOSのごとき基本ルールにしないとならんのよ。
MSだったか、チャットロボット作ってネットユーザー との会話で学習させたら、
トランプ支持のネトウヨちゃんが出来上がって慌ててサービスを終了したという。 ■ このスレッドは過去ログ倉庫に格納されています