テスラのイーロン・マスクCEOが自動運転技術を進化させるために人工知能(AI)のチップを独自開発していることを明らかにして約一か月、テスラのS3がその「Autopilot」で運転中に停まっている消防車に追突するという事故が火曜日に起こった。

The U.S. National Highway Traffic Safety Administration (NHTSA)、所謂米国道交通安全局が調査員を二人派遣して、その原因等を調べることになったという報道だが、これは間違いなく「Autopilot」(自動運転)という語感を弄んでいた人々にとっては大きな誤算になるに違いない。

エスカレートしていた例で言えば、もうすぐ完全自動運転の自動車の未来が訪れるかのようなものもあったが、レベル4までは行けても、レベル5への壁はかなり高いという冷静なものもあった。そのひとつが責任の所在などを明確にする法整備の問題だ。

今回も、テスラ社側は「Autopilot時にも、注意深くステアリングを握っているようにドライバーには要請している」とコメントしているが、恐らくドライバーはそうしていない。逆に、もしステアリングを握っていてもこの事故が起きたのならば、より事態は深刻な方へ向かってしまう。

ならばメーカーは「ステアリングを握っていろ」と言ったのに、ドライバーがそれを守らなかった場合、そうした状況下で起きた事故は誰の責任になるのだろうか?たまたま今回は追突した相手が消防車で、負傷者も出ていない。しかし、もし善意の第三者が犠牲になっていたとしたらと考えると事態は深刻だ。

この事故に関する記事をいくつか見ていて知ったのだが、Autopilotでは、停車している物体は認識しないという。つまり停車中の車がある場合は、ドライバーがステアリング操作なりブレーキ操作なり回避行動をとらないとならないとテスラ社は主張している。それって本当に「Autopilot」(自動運転)と呼べる代物なのだろうか?

https://www.reuters.com/article/us-tesla-crash/u-s-auto-regulator-probing-tesla-autopilot-crash-idUSKBN1FD2OR?feedType=RSS&feedName=businessNews&utm_source=Twitter&utm_medium=Social&utm_campaign=Feed%3A+reuters%2FbusinessNews+%28Business+News%29

 

[amazonjs asin=”4828419993″ locale=”JP” title=”97%の投資信託がダメなこれだけの理由”]