続・次世代エコカー・本命は?(81)

テスラの「自動運転」は危ない

2016072713:20 プレジデントオンライン

テスラの「自動運転」は危ない

テスラ「モデルS」 モデルSm_president_18562

(プレジデントオンライン)

PRESIDENT Online スペシャル 掲載

テスラの事故以来、自動車の自動運転についての議論が盛んだ。テスラ モデルSの「自動運転」は何が問題だったのか。また、自動運転とは“未来の夢の技術”か、それとも“人が死なない”技術なのだろうか?

ここのところ自動運転に対する議論が活発になっている。きっかけは、5月のテスラの自動運転車「モデルS」による死亡事故だ。自動運転の安全性を疑問視する報道も多かった。

しかし結論から言えば、これによって自動運転の安全性を議論するのは間違っている。むしろ問題なのは、テスラが“運転支援システム”にすぎない「オートパイロット」を“自動運転”と呼んでいたこと、そして運転支援システムの“思想性”をないがしろにしてきたことの2点である。

■自動運転にはレベルがある

まず、1点目の “自動運転”という呼び方について考えてみよう。現在、クルマの運転自動化については、NHTSA(米国運輸省道路交通安全局)の政策方針がベースになっており、国土交通省もこれに準じている。

----------

【レベル0】自動化なし
常時、ドライバーが、運転の制御(操舵、制動、加速)を行う。
【レベル1】特定機能の自動化
操舵、制動または加速の支援を行うが操舵・制動・加速の全てを支援しない。
【レベル2複合機能の自動化
ドライバーは安全運行の責任を持つが、操舵・制動・加速全ての運転支援を行う。
【レベル3】半自動運転
機能限界になった場合のみ、運転者が自ら運転操作を行う。
【レベル4】完全自動運転
運転操作、周辺監視を全てシステムに委ねるシステム。

----------

現在、公道を走っている車は、レベル2までで、レベル12はあくまでも「運転支援」であって「自動運転」ではない。事故を起こしたテスラのモデルSレベル2の「運転支援」に該当する。

■「自動運転」の責任を負うのは、自動車メーカー?ドライバー?

レベル1,2の「運転支援」とレベル3,4の「自動運転」の間には、大きな違いがある。後者の定義では、「ドライバーの安全運行の責任」という表記が消えているのだ。

この見解は国交省も同じで、今回のテスラの事故に際して出された報道発表では、

5月に米国において事故が発生したテスラの『オートパイロット』機能を含め、現在実用化されている『自動運転』機能は、運転者が責任を持って安全運転を行うことを前提とした『運転支援技術』であり、運転者に代わって車が責任を持って安全運転を行う、完全な自動運転ではありません

と、書かれている(国土交通省http://www.mlit.go.jp/report/press/jidosha07_hh_000216.html「現在実用化されている「自動運転」機能は、完全な自動運転ではありません!!」 )。ここでも、運転支援と自動運転の線引きは、ドライバーが安全運転の責任を持つかということになる。

では、自動運転では、誰が安全運転の責任を負うのだろうか。ボルボの研究開発担当上級副社長・ピーター・メルテンス20151119日のリリースで次のように述べている。「自動運転モードでの走行の際には、自動車メーカーが車両の動作に全責任を負うべきと強く考えています。もし、自動車メーカーが責任を回避すれば、自動運転技術が信頼されないのは明白です」。

■テスラは、他の自動車メーカーとスタンスが違った

以上のような背景から、旧来の自動車メーカーは「自動運転」という言葉を使うことに極めて慎重であった。ところが、テスラはそうではなかった。722日現在、テスラのWebサイトでモデルSの説明を見ると、その冒頭にこう書かれている。

自動運転」 
自動運転機能はフォワードビュー カメラ、レーダー、そして360度超音波センサーをリアルタイムの交通情報と組み合わせることで、道路状況を選ばずにModel Sの自動運転を可能にします。車線変更は方向指示器の操作1つで行えるようになり、目的地に到着すると、Model Sは駐車スペースを見つけて自動的に駐車するようになります。安全機能は標準で装備され、一時停止標識、信号、通行人を常時監視すると共に、意図しない車線変更を警告します。これらの自動運転機能は、ソフトウェアアップデートを通して段階的に有効になります。

まず、タイトルが「自動運転」である。ずいぶん不用意だ。説明本文も、普通に読めば、ユーザーは「テスラはレベル4の自動運転を可能にした」と理解するのが普通だろう。最後の「自動運転機能は、ソフトウェアアップデートを通して段階的に有効になります」という一文は「自動運転はこれから段階的に可能になるのであって、現時点では自動運転ではない」という意味なのだろうが、これも、事故が起きた後にテスラ自身が「オートパイロットは自動運転ではない。ドライバーが安全管理を怠ったことが原因」と言い出すまでは、そう取る人はほとんどいなかったに違いない。

今回の事故の直接の原因は、ドライバーがオートパイロットを使用中にDVDを見ていたことであるのは間違いない。しかし、運転支援システムに過ぎないものに「自動運転」とタイトルを付けて、ユーザーの誤解を誘ったテスラの広報スタンス軽率さは、責めを受けるべきだと思う。

■運転支援のあるべき形

2点目の問題は、テスラが運転支援システムのレベルを向上させるにあたって、“思想性”をないがしろにしてきたことだ。

現状の運転支援技術において、加速(アクセル)と制動(ブレーキによる減速、停止)の自動化は、各社はすでにかなりの水準まで来ている。メーカーによって違いがあるのは操舵、つまりハンドルの自動化だ。大別すれば、最終介入型ハンドル(基本的な操作はドライバーに任せ、居眠りや脇見などのドライバーのエラーによって車線を逸脱しそうになった時だけ介入する)と、自立型ハンドル(常に自立的に車線の中央をキープして走る)に分かれている。ハンドルから手を離してOKと言っているメーカーはないのだが、両者はかなり意味が異なる。

なぜなら、自立型ハンドルの場合、アクセル、ブレーキ、ハンドルの3つの主要システムを全て自動化するが、その状態でドライバーに安全運行管理をせよというのは無理があるからだ。3つの操作を全てクルマに任せ、緊張感が一切無い状態で管理にだけ注意力を発揮することができるのかという点がひとつ。もう一点は緊急時のシステムからドライバーへの引き継ぎの問題だ。アクセルの自動化は、事故回避のために緊急操作するケース自体があまりないので問題は少ない。ブレーキも、そもそも通常の運転ではアクセルから踏み換えて操作するものなので、システムから人間が引き継ぐ時に違和感がない。しかしハンドルは、継続的に操作してクルマの動きと操作量の関係を把握しておくのが基本のインターフェースだ。それを突然緊急時に引き継いだら、相当の違和感があるはずだ。

運転支援の場合、システムに任せた方が安全になる操作と、システムに任せたら危険が増大する操作を明確に区別せずシステムを構築することは望ましくない。ここは極めて思想性が高い部分だ。運転支援の目的が、人が安楽を決め込むことなのか、ヒューマンエラーを排除して交通事故による死傷者を減らすことなのかによって、システムに任せるべき操作の範囲が変わってくるからだ。

運転の自動化技術をアピールしてきたテスラが、「より安全を高めるためにはどうすべきか」を十分に考えていたのかは疑問である。今回の事故は、自動運転が、“自動車事故で人が死なない世界の実現”を目指すべきであることを教えている。

(文=池田 直渡)

http://news.goo.ne.jp/article/president/bizskills/president_18562.html?page=4

(続く)