2018
03.29

2018年3月28日 ウーバー

らかす日誌

ウーバー(Uber)の自動運転車が死亡事故を起こした。その動画が公開されている。人づてに聞き、今日になって見てみた。

何でも、時速60kmほど自動運転していたという。すると、自転車を引いて道を横断しようとした人が車の前に突然現れ、はねてしまった。車載カメラから前を見ていたカメラでは、突然自転車と人が現れ、あっという間もなくぶつかった様子が映し出されている。

自動運転車はまだ、アシストする人がいなければ公道での運転は認められていない。この車にもアシスト役の人が乗っていて、その様子も見ることができる。
ぶつかる直前、この人は前を見ていない。ふと目を上げたら前に自転車を引く人がおり、何をする間もなく衝突している。

「だから、自動運転車なんて殺人兵器なんだよ」

などという無責任なコメントが書き込まれていた。
本当にそうか?

この映像から分かるのは2つのことである。

一つは、万が一のことがあればコンピューターに変わって自動車を操縦しなければならないアシスト役のドライバーが、前をよく見ていないことである。だから気がついた時にはぶつかってしまった。何でもっと注意していなかった?
このドライバーが間抜けだったから事故が起きたんだ。私やあなたが運転席に座っていたら事故は起きなかったぞ。

それも一つの解答である。ドライバーに責任を押しつけることが出来ればことは簡単である。だが、簡単に出る答えは間違っていることが多い。
問題は、人間の集中力には限界があることだ。小学低学年の子供が何かに集中できる時間は15分が限度であるというデータを、何かで読んだことがある。この時間は成長するに従って伸びるが、どれほど伸びても永遠にはならない。集中力が持続できなくなる時が必ずくる。
高校の授業は50分、大学では90分から2時間である。とすれば、集中力が持続する限界はそのあたりにあると考えてよいだろう。私もあなたも、その程度の時間がたてば、

「がんばるぞー!」

と自分をいくら鼓舞しても、集中力を保つことは出来なくなるのである。

ましてや、この事故車が事故を起こすまでにどれだけの自動運転時間があり、このドライバーが何時間運転席に座っていたかは不明だが、いずれにしても、この瞬間までは車は安全に走っていた。止まるべきところでは止まり、速度を上げてもよいところでは快適な運転を続けていた。
その車の運転席に座り続けるのである。いつしか、

「この車、ちゃんと自動運転が出来るじゃん」

という信頼感が生まれても不思議ではない。自分が見ていようといまいと、車は安全に走っている。

「だったら、少しはサボってもいい」

おそらく、100人中100人が、そんな盲目的な信頼感を持つに至る。
だから、問題はドライバーにあったのではない。まさかの時はドライバーに頼らねばならない、中途半端な自動運転車を走らせたことにある。

いま、自動運転車はレベル0からレベル5まで6段階に分けられている。レベル4までは人のサポートがなければ走れない車で、レベル5になって初めて完全な自動運転が出来る車になる。いってみれば、レベル4までは中途半端な自動運転車である。
世界中、ほとんどのメーカー、研究チームがこのレベルを1段ずつ上げ、その仕上げとしてレベル5を実現すると考えている。今年アウディが出すはずの自動運転車はレベル3だ。

だが、今回の事故が明らかにしたのは、レベル5に達していない自動運転車は危険である、ということである。ひょっとしたら人間が運転を代わらねばならない自動運転車は、集中力が必ず途絶えるように造ってある人間を最後の安全弁としている。これは危険だ。
レベル5になるまで、自動運転車は世に出てはならない、と私は考える。

2点目は、事故車にブレーキをかけた形跡が全くないことだ。
スバルのiSightを始め、国産車にも

「ぶつからない」

を売りにする車が増えた。前方に障害物があれば、車は自動的にブレーキをかける。
もちろん、ブレーキをかけても車はすぐには止まらない。一定以上のスピードが出ていて、障害物が車の直前に突然現れればブレーキをかけてもぶつかってしまうのは避けられない。だから「ぶつからない車」は車の直前だけでなく、より広い範囲の監視を続け、車の前に出てきそうなものがあれば、事前にブレーキをかけて速度を落とすなどの対応を取るはずである。

ところが、この事故車はブレキーをかけたあとがない。ノーブレーキでぶつかっている。
iSight搭載車なら避けられた事故かも知れない。あるいは事故自体は避けきれなくても、急ブレーキをかけて止まる努力をし、ぶつかった時の速度は落ちていたはずである。
この車はノーブレーキで突っ込んだ。自動運転の制御系に根本的な欠陥があるとしか考えられないのである。

いま、ほとんどの自動運転車は、ディープラーニングという手法を使っている。人間の脳の構造をコンピューターで創り出し、コンピューターが自分で学習するようにする手法である。事故車もこのシステムを使っているはずだ。

人が教えなくてもコンピューターが自分で勉強しちゃう。なんだか訳が分からない世界が始まっており、

「そうか、いずれは鉄腕アトムが生まれるのか」

とも思うが、このディープラーニングにはまだ、根本的な欠陥がある。
コンピューターが下した判断を、後で解析できないのである。

わかりにくいかも知れない。
これまでコンピューターは、基本的には
if……、
then……

というプログラムで動いてきた。こんなことが起きたらこうしなさい、という命令を、人間がすべて書くのである。だから、コンピューターに判断能力はなく、事前に人間が命じたことを実行しているだけともいえる。
これなら、コンピューターが実行したことに誤りがあった場合、書いたプログラムを点検すれば原因が分かる。間違った命令をしていたか、あるいは起きることを書き忘れ、命令をしていなかったか、である。
だから、今回の事故車が、この構文で書かれたプログラムで動いていたのなら、あの状況で何故ブレーキをかけなかったかを分析することができ、原因を突き止めてプログラムを書き直すことが出来る。つまり、同じ状況では必ずブレーキをかける車にすることが出来る。

ところが、ディープラーニングではそうはいかない。何しろ、自分で学んでしまうコンピューターなのだ。これまでいったい何を学び、のような知識の蓄積を元にブレーキをかけないという判断をしたかが、ほとんどの場合分析できないのである。
分析できなければ原因を突き止めることも出来ない。つまり、お手上げなのだ。対策の取りようがない。

多くの書き込みのように、1件の事故で自動運転車をすべて否定するのは間違っている。ウーバーの事故をこれからに生かすためには、事故の根本的な原因が何であったのかを正確に知る必要がある。

自動運転車は殺人兵器などではない。欠陥は、人間の注意力が持続することに過大に頼り、問題が起きた時に原因を解析できないコンピューターシステムを採用しなければならない、ウーバーの自動運転システムにある。

そうではない自動運転車も世にはある。ウーバーの事故だけで自動運転車全体を否定してはならないと私は考える。