自動運転車 AI
自動運転車の事故は「原理的に」避けられない!? AI技術の死角
テスラの死亡事故が残した教訓
〔PHOTO〕gettyimages

死亡事故の波紋

今年5月に米テスラ・モーターズ製の電気自動車「モデルS」が引き起こした死亡事故が波紋を呼んでいる。同車種では「オートパイロット」と呼ばれる(限定的)自動運転機能が利用可能であり、事故を起こしたドライバーは高速道路を走行中に、この機能を利用していたからだ。

事故の具体的な様子は後述するが、自動運転中のモデルSは対向車線から左折してきた大型トレーラーと衝突。これがドライバーの死亡へとつながった。

ここ数年、グーグルや日米欧など世界各国の自動車メーカーは自動運転車の開発に注力し、一般道などで極めて長距離に及ぶ試験走行を重ねてきた。その過程で「接触事故」のような軽度のアクシデントは時折報告されたが、ドライバーや同乗者の死亡、あるいは重傷といった重大な事故はこれまで一度も起きたことはなかった。

このため順調に開発が進めば、今後、段階的に自動運転技術が自動車に導入され、2020年頃には完全な自動運転、ないしはそれに近い機能が実用化されるとの見方が強まっていた。

その矢先に起きた今回の死亡事故は、これまでの楽観的な観測に深刻な陰を落とし、自動運転の実用化に関する各社の将来計画に少なからぬ影響を与えたと見られている。

たとえば米ゼネラル・モーターズ(GM)は、今年(2016年)の秋に製品化する予定だった(限定的)自動運転車の発売を来年まで延期した模様だ。今回のテスラ車による死亡事故を受けて、自動運転機能の安全性を今以上に高めてから市場に投入する意図と見られる。

また米フォードは「(オートパイロットのような限定的な自動運転機能ではなく)ドライバーの要らない完全な自動運転機能を2021年までに実用化する。当初は一般消費者向けに発売するのではなく、(米Uberのような)配車サービス事業者(ride-hailing service)などに提供する」との計画を明らかにした。

いずれのケースでも、自動運転技術に関する、各社のこれまでの計画や開発方針が相当の見直しを迫られていることが伝わってくる。

この続きは、プレミアム会員になるとご覧いただけます。
現代ビジネスプレミアム会員になれば、
過去の記事がすべて読み放題!
無料1ヶ月お試しキャンペーン実施中
すでに会員の方はこちら