X



【クルマ】5人か1人か、どちらを救う? 自動運転車が直面する「トロッコ問題」 [七波羅探題★]
レス数が1000を超えています。これ以上書き込みはできません。
0001七波羅探題 ★
垢版 |
2022/07/23(土) 15:52:25.73ID:I0XVI9OX9
時事2022年07月20日17時00分
https://www.jiji.com/jc/v8?id=202207keizaihyaku064
(時事通信経済部 工藤玲)

◇倫理的な議論の意義
トロッコ問題は、当然ながら自動運転だけではなく、人間が自ら運転する場合にも起こり得る。ただ人間の場合、反射的にハンドルを切ったり、パニックで体が固まってしまったりと、冷静な判断が難しいケースが多い。一方の自動運転車は、考え得る限りのケースを想定し、あらかじめプログラミングした通りに作動する。つまりトロッコ問題に直面した自動運転車が、何を優先させてどのような動きを選択するかは、人間による事前の検討次第といえる。

そのまま直進すれば5人と衝突し、方向を変えれば1人が巻き込まれる場面。単純に犠牲者の数を最小限に抑えるのなら、瞬時にセンサーで人数を把握し、人数の少ない方に向きを変えることはできるだろう。1人の命より5人の命を優先する、言い換えれば5人を守り1人を犠牲にするプログラミングをすることになる。人間がとっさに判断する通常の車両よりも、事前に命の選別をも迫られるため、自動運転車の普及には倫理的な議論が不可欠だ。

メーカー側も、自動運転の技術を磨く上で、倫理的側面からの議論の必要性を感じている。ホンダで車両制御システムの研究開発に携わってきた波多野邦道氏は、「単に事故を起こさないことだけではなく、何をどのように配慮するのかという価値観(を考えること)が、非常に重要になってくる」と語る。

◇倫理ガイドラインの現状は
ドイツでは2017年、政府が立ち上げた倫理委員会が、自動運転車とコネクテッドカー(つながる車)に関する倫理指針を策定。命の軽重を年齢や性別といった個人の特徴で区別しないことや、責任の所在を明確にできる記録を残すことなど、20の規則を示している。自動運転に特化した同様の提言は欧州連合(EU)や米国にもある。日本政府は19年3月、人工知能(AI)の開発や活用に関する「AI社会原則」を策定しているものの、自動運転に特化したものではない。

そうした中、日本でも民間主導で、法学や倫理学、工学などさまざまな分野から専門家10人が集まり、「自動運転倫理ガイドライン研究会」が21年9月に立ち上がった。樋笠尭士代表(多摩大学専任講師、名古屋大学客員准教授)は、「メーカーが車内の人を守るのは当たり前だが、歩行者を犠牲にしてはならないのも当たり前。その対立が表れてしまうのが自動運転の世界だ」と話し、車に乗っていない人命にも影響が及ぶ特異性から、自動運転固有の倫理指針の必要性を強調。国にも働き掛けたい考えだ。

研究会は今年6月にシンポジウムを開催し、「自動運転倫理ガイドライン案」を公開した。乗員や歩行者の別を問わず人命を尊重することや、メーカーは自動運転システムが作動する条件などを誇張せず使用者に伝えることなど、計11の指針を示した。

ドイツの指針では、トロッコ問題は不測の事態が多く一般化が難しいため、事前のプログラミングはすべきでないとの立場を示している。樋笠代表は「ある意味(独の指針は)、メーカーを悩みから解放してあげている。でも、それでいいのかというのがわれわれの考え方だ」と説明する。

そこで研究会はトロッコ問題への対応について、指針の中で、時代によって変わっていく価値観に応じ、業界全体で方向性を定めることを目指すべきだとした。事前のプログラミングを否定せず、独の指針とは異なる立場を取った。

■プログラマーに責任?
メーカーが自動運転車のプログラミングを手掛ける際、トロッコ問題への対応として、▽特別なプログラミングをしない▽人数が少ない方を犠牲にするプログラミングを施す―など、幾つかの選択肢が考えられる。法学が専門の樋笠代表は、もし指針が何もない状態で事故が起き、犠牲者が出れば、プログラマーが罪に問われる可能性があると指摘する。

刑法37条の緊急避難の規定は、「現在の危難を避けるため、やむを得ずにした行為は、これによって生じた害が避けようとした害の程度を超えなかった場合に限り、罰しない」と定めている。罪に問われないよう緊急避難を成立させるには、「やむを得ずした行為」でなければならない。プログラマーが別のプログラミングを施すこともできたと判断されれば、犯罪として成り立ちかねないのだという。

※以下リンク先で

 

 
0952ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:42:58.30ID:uUo93iE/0
っか自動運転の車も事故起こすんだ(笑)
事故だらけで警察ウハウハだな。
0953ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:43:11.74ID:0/Tu6oPY0
大勢の人を轢く直前で、ロケランぶち込んで車を破壊する公安セキュリティーシステムが出てきて全て解決
0954ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:43:13.96ID:5EMd+Jk70
トロッコ問題以前の問題山積みなのに
どうやっても最適解なんて出ない事が解りきっているトロッコ問題を前面に押してくるのを見ると
自動運転技術が頭打ちしてるんだろな
こうやってウダウダやってりゃ後発陣も頭打ちレベルの技術には追いつけるだろうし
0956ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:43:38.29ID:i6eHNhNo0
>>946
AIはそんなことを判断しない

前にも書いたけど格闘ゲームの超反応のようにその時点で危機を回避を繰り返すだけ
次の局面については予知できない

魔法じゃないんだからさあ…
0957ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:43:48.61ID:DPhqiGEk0
AIなんて何かを最小化/最大化する方策しか取れないんだからさ
死傷リスクの平均を最小化するか、人の命の価値を何らかの手法で数値化して重み付きの平均を最小化するしかない
0959ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:43:53.43ID:shLg/X/A0
>>792
乗員最優先なら、時速100キロで走ってる車の前に、
突然スリップをしたトラックが行く手を塞いだ。

他の方向は、硬い壁ばかりで、衝突したらおそらく即死だ。
歩道の上には何百人もの人がいて、それをクッションにすれば中の人は助かる。

こんな時に、人ごみに突っ込む判断をする自動運転車は許されるのか。
0960ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:44:01.93ID:r9RALwnA0
>>946
まぁ、真面目な話すると>>1のような状況にならないわな
前方で車道に飛び出してる子供が居た時点でスピード落すだろうからさ
0961ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:44:08.63ID:UU7Gj8Tx0
ゼロリスクじゃあ何も進まないとかいう奴は
お前が自動運転車の試験車に同乗しろ

アポロ13号に乗せてもいいぞ
0967ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:44:47.86ID:+jadPOJm0
>>933
たとえ凄惨な結果が見えていても、
その努力をしたから否かで
同情される程度が違う
0971ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:45:03.09ID:G37Yx8W30
自動運転もままならないのに、飛躍しすぎ。
とりあえずはみ出さないで信号守って走るようになってから。
0972ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:45:19.41ID:al9EfkSC0
>>48
それ人が交通ルールを破ってるからそいつが轢かれても仕方ないねん
飛び出しに対して回避はするが選択肢で回避したら他に犠牲が出るなら
その交通ルール破って飛び出した奴が犠牲になる以外ない
裁判結果が今まで人に対して寛容過ぎたってだけや
0974ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:45:26.83ID:i6eHNhNo0
AIは倫理問題を解決しない

AIは思考しない

経験則から行動を決めているだけだから

ゆえにAIにはトロッコ問題は存在しない

単純明快
0975ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:45:44.23ID:vkUrztv50
>>1
命は1人一つってのは等しいが重さは全く違うし同じ人間の重さでも見る人によってもまた変わる

AIによるトロッコ問題はそういうのを無視してるからな
0977ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:46:11.40ID:uUo93iE/0
赤信号大勢で渡れば怖くないが成立しちゃうじゃん
0978ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:46:23.99ID:0/Tu6oPY0
スーパー逆噴射ロケットみたいな装置をフロントに付けといて、緊急時は瞬時に止まれるようにしとけよもう
0980ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:46:27.37ID:i6eHNhNo0
>>963
ビーコンがバリアになってるのに何でつけないんだ?
自分が引かれないためのバリア

レーダーなんか枯れ葉で誤差が出るぞ
0981ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:46:30.18ID:gbNJN/5u0
>>285
子供の地位が高過ぎる
子供は育てなければならないし 金がかかる
犯罪者やニートになる可能性もある
立派になるとは限らない
0984ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:46:51.30ID:al9EfkSC0
>>951
そうだっけ?じゃあもう答え出てるんやな
0985ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:46:55.62ID:CuWtVG/k0
1人の妊婦、5人の逃走中の殺人者集団
AIは迷わず5人にロックオンしてフルスロットル
衝突直前にAIの高笑いが聞こえる
0989ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:47:31.81ID:U8InH65Z0
こういう場合は賠償額の合計を瞬時に計算し可能な限りリーズナブルに押さえるのが当たり前の配慮だろ?
0990ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:47:34.03ID:+jadPOJm0
>>926
電車の方は、怪我人の怪我の程度の総数を数値化して、
ソレが線路上の人を殺す数値化した結果を上回るなら、
人を轢き殺す、ってロジックは組み易い
0995ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:48:27.56ID:xj50m6O70
>>941
でもルール破った奴が犠牲者にはなり得ないケースもあるからな
右折車が直進車小突いて直進車が歩行者に突っ込むとか
0999ニューノーマルの名無しさん
垢版 |
2022/07/23(土) 17:48:48.42ID:i6eHNhNo0
>>988
AIがそれをできるならすべての法的倫理的問題を解決できることになる
つまり全能AIができないと自動運転は出来ないと言ってることになる

文系は馬鹿だからそれが理解できない
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 1時間 56分 26秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況