読者です 読者をやめる 読者になる 読者になる

続・次世代エコカー・本命は?(80)

自動運転機能は、高齢ドライバーや車を必要とするが車を操作できない人達にとっては、垂涎(すいぜん)のものとなろう。テスラの「Autopilot」機能は、今のところ、そのような人達にとって使いやすい物にはなっていないようだ。それは仕方ないことである。自動運転はこれからのものであり、完成の域に近付くにつれて操作しやすい物に改良されてゆくことであろう。

 

それも大切なことであるが、今のところは如何に安全に確実に自動運転をするか、と言った本来的な機能に集中している時である。テスラの「Autopilot」機能は未完の物なのであろう。

 

 

だからあらゆるケースに対して事故を防止できるようなソフトウェアを用意しなければならないが、それを人間が完備できるかははなはだ疑問である。いくらAIによる「ディープラーニング」だと言っても、限界があるのではないのかな。

 

次の事故は、GoogleSelf-Driving Carが起こした事故の例である。

 

 

Google自動運転車が「だろう運転」でバスに接触。幸いけが人なし、AIプログラムはすでに修正

BY Munenori Taniguchi 2016030110300


カリフォルニア州で公道走行テストを続けている Google の自動運転車が、バスに接触する加害事故を起こしました。Google の自動運転車はこれまで何度も事故に遭っていますが、それらはすべてもらい事故だと Google は主張していました。

 

カリフォルニ州当局によると、Google の自動運転車は交差点を右折するための車線に入ったものの、走行車線に戻ったところを後方から時速24kmで走行してきたバスの右側面に接触したとのこと。自動運転車が走行車線に戻った理由は、右折車線の路肩にある雨水の排水口を囲むように置かれていた土嚢が、進路を塞いでいたため。

搭乗していた Google の技術者はバスの接近を確認していたものの、自動運転モードのまま走行を続けさせ、バスに接触してしまいました。

バスが停まってくれると思った」とは Google 技術者の弁。一方、自動運転車の AI にどんな言い分があるのかはわかりませんが、ルーフ上の360度レーダーが後方不注視だったはずもありません。もし AI が、後ろから接近する車の前に鼻先をねじ込めば相手が停まってくれると思い込んでいたのであれば、これはいわゆる "だろう運転" の典型が AI でも発生したと言えそうです。

実際のところは、こうした場面に対応する適切なプログラミングがなされていなかった可能性のほうが高そうです。それでもこのイレギュラーな場面をすべて想定しておかなければ「自動運転車だから絶対に安全とは言い切れないことを、今回の事故は語っているようにも思えます。

不幸中の幸いといえるのが、ひとりのけが人も出なかったこと。Google はこの事故を受けてすでにバスなど大型車両の挙動に対して、より注意するよう AI プログラムを調整したと発表しています。

ただ、より注意深くするあまりさらにゆっくり走行されるようになったのでは、たまったものではありません。Google の自動運転車は、法定速度よりはるかに低速で走行して渋滞を引き起こす例が相次いでおり、201511月には警察による事情聴取と注意を受けるに至っています。しかし Google は「法定速度以下だから違反にはならない」としてこれを聞きいれていません。こうした対応も、周りのドライバーからすれば迷惑かつ危険な行為であり、Google が主張する「もらい事故ばかり」の一因かもしれません。

http://japanese.engadget.com/2016/02/29/google-ai/

 

 

こうした対応も、周りのドライバーからすれば迷惑かつ危険な行為であり、Google が主張する「もらい事故ばかり」の一因かもしれません。』の「もらい事故ばかり」は、「6年間でもらい事故14件。Google の自動運転車が追突され初の負傷者」(http://japanese.engadget.com/2015/07/21/6-14-google/)を参照願う。

 

人間が作ったソフトウェアで動く車もミスをする。それはそのソフトウェアが、人間が作った以上全く欠陥がないと言えないからである。人間が凡ミスを犯すと同じように、プログラム的にあらゆる条件を網羅出来ないからであり、更にはセンサー類もすべてのケースで正しくセンシングするとは限らないことである。

 

だからと言って自動運転、例えばテスラの「autopilot」が使い物にならない、と言う事ではない。ある意味余程人間よりも安全なのであろう。さらには、特殊な事例をも網羅できるように、現在盛んに実験を続けているのである。そうすれば相当安全で確実な自動運転車に出来上がってゆくことであろう。

 

そうであっても特殊な走行のケースに遭遇した場合には、プログラム的に間違った操作をすることもあり得る。これは一義的にはプログラムのミスであるが、現状では人間が完全なプログラムを作成できない以上、プログラムの責任れとならざるを得ない。しかしそれを承知で人間がそれを使うので、責任はドライバーたるその人間に押し付けざるを得ないのもやむを得ないのではないのかな。但し完全自動運転車となると、ドライバーは乗っていない。乗っているのは利用者だけであるので、その場合事故の責任は車にあることになる。車であれば、その車の運行主体と車の製造主体が、責任をとることになろう。

 

だから、テスラの自動運転は危ない、と言った論調もある。

簡単に言ってしまえば、テスラは「自動運転でないものを、安直に自動運転と表現している」ことにあるようだ。

(続く)