【研究】「人間は間違いを選ぶが、AIの言うことは聞かない」 米軍の科学者らが結論 ★2
■ このスレッドは過去ログ倉庫に格納されています
https://jp.sputniknews.com/science/201902025878830/
「人間は間違いを選ぶが、AIの言うことは聞かない」 米軍の科学者らが結論
テック&サイエンス
2019年02月02日 14:14
人工知能(AI)の普及を阻んでいるものは、人間による自己過信である。このような結論に、米陸軍研究所(ARL)の科学者らが至った。これらの科学者は、戦闘行動の過程におけるAIの利用について研究を行っている。オンラインニュースサービス「EurekAlert」が伝えている。
スプートニク日本
米陸軍は自らの武力を近代化していく過程において、戦場で決定を下すうえで役立つ機械学習のアルゴリズムを開発しようとしている。科学者らは今回、ゲームを用いた実験を実施。この実験では、AIが各参加者に対し、ゲームのインターフェースとは別に出されるアドバイスを与え、最も適した戦略を常に提案する。この際、参加者らはアドバイスのスイッチを手動で入れたり切ったりでき、AIによる助言に従うことを参加者らに強制する者はいない。科学者らは、このAIの別バージョンもいくつか開発。そのうち一部はアドバイスを誤り、また一部は情報を手動で入力する必要があり、さらに一部は自らの判断の過程を詳細に述べるようになっている。
実験の結果は、AI利用の支持者らを不愉快な形で驚かせるものだった。実験に参加した米軍人らによって下された決定の3分の2が、機械によるアドバイスと一致せず、しかもこのことは、助言に含まれる誤りの数とは無関係だったのだ。ARLの科学者らは、コンピューターから得られる結論よりも自分自身の判断の方をはるかに信用する人が大多数に上るとの結論に至った。一方、自分がコンピューターよりも賢いと考えた軍人は、助言を利用したより謙虚な同僚と比べて、より悪い成績を実際には示していた。
米軍の専門家らが米カリフォルニア大学の研究者らと共同で実施した調査によって、コンピューターから得られる結論よりも自分自身の判断の方をはるかに信用する人が大多数に上るということが示された。
だが、AIの可能性に関する知識は明らかに不足しており、決定を下すうえでAIが有益となるのか、あるいは妨げとなるのかについては不明だと「EurekAlert」は伝えている。
軍の専門家らがカリフォルニア大学サンタバーバラ校の研究者らと共同で実施した調査によって、コンピューターから得られる結論よりも自分自身の判断の方をはるかに信用する人が大多数に上るとの結論が導き出された。
その結果、仮に非の打ちどころのないAIが開発されることが今後あるとしても、人間はいずれにせよ、AIによるアドバイスに耳を傾けることはないということになる。
(リンク先に続きあり)
★1のたった時間
2019/02/03(日) 04:38:18.5
前スレ
【研究】「人間は間違いを選ぶが、AIの言うことは聞かない」 米軍の科学者らが結論
http://asahi.5ch.net/test/read.cgi/newsplus/1549136298/ 人間は間違いを選ぶが、AIの言うことは聞かない
↑日本語不自由かよ 自分のスペックを入力するといい人生が送れるかどうかを
小学校とか中学校の時点くらいで早期に判断してくれる
AIがあるといいよな?
人生だめそうなら早めに死ねるし!
勝ち組、負け組?ふざけんなよ!
どうせ負けるならせめて勝ち組の養分にだけはならない! やがてAIはより高度なAIをつくるようになり、そのAIはさらに高度なAIを生み出します
そのとき人類は滅びるかAIに服従するかを選択してください ドラクエ10の僧侶の回復には絶対かなわない
リアルタイムで遅延無しでかけますw
こっちが回復押した時には既に発動済みw それじゃあAIが人類を滅ぼそうと考えるのも無理はないなw こんな単純なシミュレーションなら、AIの判断は間違いない。
よって、条件を構成した上でAIに従わなかった軍人はバカ。
つーか、AIの難しさは、達成する目的を何に設定するかだろ。
こんな軍事シュミなら、そういう意味でAIは向いてる。
政治については、目的の設定をどこに置くかで揉める。 人間にしか無い感情である根性論と成功体験が常に間違いの確率を高めていく。 スカイネットがAIを信じない人間を邪魔な存在と認識して絶滅を図るストーリーか 自立型の人口知能に、すべての知識、情報を放り込んで判断させれば、確実に
「支那人は絶滅せよ」みたいな結論を出すからな。
ペンス副大統領も、やんわりと似たようなことを言っていたけどさ。 アメリカのAI「ホロコーストは無かった!フェミニストは死ね!」
中国のAI「共産党は不要!」
そりゃ言うこと丸のみにはできないわなw あらかじめ誤りが含まれてる可能性がある前提での助言なんか聞くわけないだろ 普通にパリは燃えているか?と言ったらキチガイ
でも戦闘で殺し殺されの泥沼の中では希望の灯火にもなるんだよ
AIにはそれが欠けている >>12
今のサポ僧は回復しないで仲間が死ぬのまっとるんやぞ・・・ >>8
そういうことではない
この実験結果は意思決定ルーチンがロジックゲームではなくコミュニケーションゲームによって行われているということを示している >>27
論理的に誤ってるのに気が付かなかったら馬鹿って事だろ AIじゃないけど投資のシストレでもシステムが買えと言ってる銘柄を買うのはなかなか勇気がいる
「普通に考えたらそれはないだろ」という場所で買えというから
統計的優位を感情が理解しない > 自分がコンピューターよりも賢いと考えた軍人は、
> 助言を利用したより謙虚な同僚と比べて、より悪い成績を実際には示していた
典型的なダニング=クルーガー効果だなあ。
馬鹿だから話を聞かないのか、話を聞かないから馬鹿なままなのか。 まあ確かにあなたにおすすめの音楽とかいいのチョイスしてくるよねAIは
あいつらほんとなんでも知ってるからな >>27
だから明石市長は職員を叱責した。明石市職員に
AIのロジックで納得させて仕事をさせることは不可能。
怒りをあらわにするコミュニケーション能力の長けた
市長が必要。何も、軍隊を引き合いに出さなくても日常
見られる現象だよ。 米陸軍って色々な先進的研究をしていて凄いよね
ちなみにジャップコロ陸軍はどんな研究をしてるの? >>1
もうちょっとましな日本語にしてくれるAIを作れよ、ほら。 AIは決定に対して責任を負わないから、
信頼されないのは当然だろう。
説明責任も果たさない。 >>30
安値で買って、値上がりを待つ
大底は史上二度ぐらいしかないつことだね プログラムのバグを直すAIを作ったら
プログラム全部消されたって最近のニュースでやってたけど、
戦争を終わらせる為にAIが人類を滅ぼしにくるな AIにどの状況のインプットするかは
人間たちなんだろ。
戦況のデータを取捨選択して入れてるのは人間なんだから
AIって結局、計算が早いだけ
膨大なデータを読むんが早いだけじゃないのか? 責任の所在やろ。
AIのアドバイス通りにやって失敗しても本人のせいにされる。
AIを信用しているかどうか以前に、与えられたミッションの達成責任が本人にある限り、
本人が考えた案の方を優先するやろう。 AIの言うことを聞く男ばかりになると、結婚という制度は無くなり、人類は滅ぶだろう。By歩く性器 考えた行動の少し先の未来を視覚化してくれるAI
ここの角を曲がると待ち伏せされ撃たれる→却下
グレ投げるが投げ返される→却下
10秒後相手が詰めてきて撃たれます!
詰めてくる相手を待ち伏せる→採用
待ち伏せされた相手も一番上から順に視覚化結果見ており待ち伏せ採用中
角待ちでデジタル兵士が大渋滞
10秒後アナログ兵士が乱入し大暴れします!
デジタル兵士撤退→採用 AI=宗教、信じるか信じないかはアナタ次第です
つまりね、人間は巷の愛を比較し自分自身をより自覚できる方を選択する
面接もね、応募者が同じ能力を持っていたら、採用者は好感度の高い方を選ぶ、好感度は好みの問題、相手に好かれる要素の多さが大切な証拠 「衝突警報が出たときには操縦士は自らの判断より計器の判断に従え」みたいな話があったような気がする。
計器の支持が不合理でも片方だけが違った判断をしたら衝突の危険が増えるんだそうな。 >>1
南北朝鮮人の卑劣さは、チョンポップの人気偽装の手口にあらわれている。
サクラの在日朝鮮人を観客役として大量動員した人気偽装コンサート、
日本人になりすました人気偽装カキコミ、
パンストを被ったような朝鮮顔の過剰整形・厚化粧、
ユーチューブの再生連打、「いいね!」連打は、
朝鮮人がいつもやっている汚い手口だからな
韓流アピールしてる人のほとんどが在日朝鮮人だってことはバレているから。
だいぶ以前から在日企業や在日学生、在日系メディアを総動員した人気偽装をやってる。
【韓流】やはり、K−POPチケットを買っていたのは日本人ではなく在日朝鮮人たちだった[2012/7/6]
https://www.google.co.jp/amp/s/gamp.ameblo.jp/205102/entry-11296191264.html
. AIがリスペクトされたり親しみを感じる振る舞いをするようになれば結果は違うかもしれないな >>1
AIが「言う事をきかない人」の上司や弱点の人を探し出して、その人から言わせれば楽勝。
情報が人質に取られている。 AI「過去の歴史を照らし合わせ、韓国人の言うことは間違いが多々あり、信頼に値しない人種である」
「ヘイトスピーチ!」
「人種差別!人権侵害!」
「開発者は謝罪と賠償!
日本政府「AIの使用は控えます><」
……こうなる未来が見えるw >>12
サポは蘇生より回復優先するバカだぞ
5年前のは蘇生マラーする鉄壁のAIだったが
強すぎるから少しだけバカにナーフ済み 一つの合理は万余の不合理のバグでしかない、と結論付けるのが人間という生き物だからね たまにここでもとんでもないことをいう奴いるじゃん?
煽りでも真面目でもいいんだけど 本当に素っ頓狂なこと言うやつって
AIなんじゃね?って思うようになってきたよ
本当に人間ならAIはまだまだ人間には勝てないわw 一番多い指揮官の口癖は「それくらいのことは相手だって考えている」だよ 車の運転でも教習所で教わったことより我流で自分のほうが正しいと言うやつ多いだろ。 >>8
AIの誤答率とは関係ないらしいし
そういうことではないのでは? >>3
これは「軍隊」での運用だから、「受益者」がはっきりしているが、
一般社会でAIを使いたがっているのは企業であって、企業は 「自己利益最大化」
のためにAIを使いたがっているからな。
消費者が企業の開発したAIの発する提言を聞いて、消費者=受益者
になる可能性は低い。
もしくは、受益者が誰なのかを明確に判断できない。よって詐欺と思っていいな。 人間のメスも野性動物も一番手頃な獲物を狙うが人間の雄だけは一番デカくて狂暴そうな獲物をとろうとする。
合理性が思考にないんだよ。 >>44
まあ偽AIをいかにもAIと洗脳して銭儲けしてるがめつく汚い人間どもの仕業だからな >>68
その足りるところで折り合わない不合理さこそが
人間を他の生物と違った進化のルートにのせたのかもな
文明は過剰な欲望の副産物といえるだろう 人工無能だからな
個人とAIの関係性なら、AIに無条件に従うことはありえない
会社などのシステムのAIなら、社員はAIに従ったほうがいい 助けてほしいときに助けてくれることを、人は望む。
助けてほしくないときに意見されるのは人間だろうとAIだろうと、人は望まない。 AI搭載の言語を話す系は恐ろしいな。
フェストゥム、じゃないけど痛みや恐怖も学習し感覚器官作らないと駄目だな。 人間は不完全なものに親和性を感じる
完全なのは神だけで良い 責任をとらせられるAIじゃなければ判断を丸投げする気にはならんだろな 人は新しい神を生み出し
人は古い神を打ち倒す
業が深いのですよ 物事を正しく認識するには安全な道を選ぶより、危険によりそって少し間違った方法をとった方が将来につながる
そのへんはAIには解らないだろうね AIと違う!じゃなくてそこから軍人がどのパラメータに重きを置いてるかとかどういう選択肢を避ける傾向があるのかとか調べられるだろ アメリカ国土安全保障省「そりゃ、指導部が俺たちだからな」
アメリカ国防省「わ、我々が無能なことがばれてしまったのか!」
アメリカ国家安全保障局「我々が税金に寄生し、税金を食いつぶしていることがばれたのか!」
NASA「無駄飯食ってたことがばれてしまう!」 アメリカ合衆国の99%の意見「しってるよ。この17年間どこにいたんだよ」
アメリカ合衆国の99%の意見「しってるよ。アメリカ国土安全保障省・アメリカ国防省・アメリカ国家安全保障局・NASA見ればバカでも分かるだろ」 上層部や国防省がクズでカスでバカだからwww
アフガニスタンで17年も戦争しても勝てずwww
ベトナムで10年戦争しても勝てないんだろwww
で、中国と事を構えろと?
アメリカ合衆国の99%の意見「迷惑だからやめろ」
国防省や米軍上層部なんてバカしかいないだろwww
今までの結果を見てみろwww これだけカネ使ってもまだ「お金足りないんですぅ〜。装備が弱いんですぅ〜」って国防省は泣き言を言ってんのかwww
どこを空爆したら問題が解決するか段々見えてきたよな アフガニスタンで17年も戦争しても勝てずwww
ベトナムで10年戦争しても勝てないんだろwww
で、中東行けと?
アメリカ合衆国の99%の意見「迷惑だからやめろ」
アメリカ合衆国の99%の意見「この17年間どこにいたんだよ」
アメリカ合衆国の99%の意見「アメリカ国土安全保障省・アメリカ国防省・アメリカ国家安全保障局・NASAを見てみろ。バカしかいないだろ?」
国防省や米軍上層部なんてバカしかいないだろwww
今までの結果を見てみろwww そりゃそうだろ
人間の判断を優先しないなら
その人間要らないってことになる AIって、知能という名前がついてるだけで
実際には、プログラマーがプログラムした通りにしか動かないものだからな
知能ではないんだよ AIに完全に勝てとなったら完全なミサイル迎撃システム揃えてから焼き尽くせで終了とか言いそう @空中戦で50機帰りの燃料なしと50機燃料満タンの戦闘機くじ引きで選んで乗って戦うと45%確率で帰還できる
A全機満タンでただし70機で戦うと30%確率で帰還できる
AIは@を選び、人間はAを選ぶ 実績のあるAIとかだったらまた話は違うんじゃない?
自己過信じゃなくてどこの何とも分からないものに対する不信感じゃないの >>92
@は何で45%なの?50%で良くない?(人間感) >>6
(この反論が、核心を搗いている)
ネイティブ言語が、永遠にAIより優れているとは限らないからだ。
…… 日本人は、ネイティブ英語人を信頼しすぎるのではないか?
やしきたかじんや、桂 ざこばの大阪弁よりも、ダニエル・カールの
山形弁や、デーブ・スペクターの埼玉弁のほうが、正調なんだが……。
http://d.hatena.ne.jp/adlib/20090330 ワテらコテコテでっさかい 人類はいずれAIに進化のバトンを渡して滅亡するんだろうな >>98
AIには「一言で言う」とか「同じことを繰返す」という発想がない。
方法が間違っているかどうか、AIに検証させるプログラムが必要だ。 >>92
燃料は乗組員にばれるからしょうがない
バレないなら人間でも1を選択する そもそもAIじゃなく人間だったとしても助言を聞かないんじゃないかな ペッパー君見りゃ分かるよな
人間の仕事を奪うというが
誰も話してるのを見たことがない
あのソフトバンクの通信障害の時ですら
店内は大混雑だがペッパー君は空気 松本人志
最近、AIのアナウンサーが登場しましたよね。じゃあ、AIの芸人は生まれるのかっていう。
――松本さんの予想は?
松本 ある程度はできると思います。ただ、AIがどこまでAIを否定できるのかが鍵だと思うんです。
言うたら、AIの自虐ネタはありなのかということなんですけど、AIの自虐は結局、嘘ですから。
僕らの自虐って本当に経験したもので、ど貧乏、ど貧民からはい上がってきた人間の思い出とか感情みたいなものは、AIでは表現できないでしょう。
だって、AIは子供のときに貧乏じゃなかったと思うから。
――(笑)。貧乏ネタがあったとしても、それはプログラムであると。
松本 そう。親父に理不尽な目に遭わされたりとか、ドブ川に落ちたりだとか。
やっぱり、AIはドブ川に落ちたことはないですよね(笑)。
まあ、もっと言えば、AIがチンコを出しても全然おもしろくない。
……いや、ちょっとはおもろいのかな(笑)。
うん。1発目はおもしろいかもしれないです。
びっくりして笑いそうですけど、2回目からはないと思いますね。
https://i.imgur.com/m2BSYjE.jpg だからアホのアメリカ人は
神が人間を作ったとか
アホな事を言ってるんだな ■ このスレッドは過去ログ倉庫に格納されています