テスラ車の死亡事故から、人類が学ぶべき「絶対にやってはいけないコト」

自動運転が人を殺さないために
島崎 敢

「2億キロに1人」の法則…?

話を自動運転に戻そう。今後も自動運転による事故は発生するのだろうか。数字の面から見てみる。日本にあるすべての車の走行距離を合計すると年間8000億キロほどになるそうだ。そして日本の交通事故死者数は年間およそ4000人。犠牲者は2億キロに1人という数字になる。

一方、テスラの自動運転機能「オートパイロット」は今回の事故までに2億キロの走行実績があるそうだ。こちらも2億キロに1人という数字になる。国が違うので一概に比較はできないが、数字は概ね同じになる。この数字で見ると、自動運転のリスクは高いだろうか、低いだろうか。

気をつけなければいけないのは、テスラの事故はまだ1件なので、統計的な分析の代表値としては問題があるという点だ。つまり、テスラの2件目の死亡事故は「オートパイロット」の総走行距離が2.1億キロの時に起きてしまうかもしれないし、総走行距離100億キロまで起きないかもしれないのだ。

また、システムが起こした事故と、人間が起こした事故には根本的な違いがある。仮に今回の事故で何故システムが適切にトレーラーを回避できなかったかが調査され、その解決策が見つかり、世界中のテスラが解決策を組み込んだ最新のソフトウエアにアップデートされたとする(現にテスラは車に搭載されているソフトウエアが定期的にアップデートされることを売りにしている)。

そうすると他のテスラは、少なくとも同じ状況下での事故は起こさなくなる。こういったことが繰り返されると、自動運転の車が起こす事故は長期的に見れば減っていく可能性が高い。

スイスチーズモデル

事故リスクを減らすという観点から見ると、今回のテスラの事故でも「事故は誰のせいか」という議論はあまり意味がないことに気づく。テスラのシステムに重大な欠陥がなかった場合、恐らくドライバーの責任ということで方がつくだろう。

そんなことはないと信じたいが、ここで例えばテスラ社が「事故はドライバーの責任だから我々が対策をする必要はない」と考え、原因究明やそれに基づいたソフトウエアの改善などを行わなかったらどうなるだろうか。対策が行われなければ世界のどこかでまた似たような事故が起きてしまうはずだ。

リーズンの「スイスチーズモデル」 図:著者作成

事故のメカニズムについて、心理学者リーズンは「スイスチーズモデル」を提唱している。危険源は常にあって、その手前に穴のあいたスイスチーズが何枚か並んでいる。普段は穴が重なっていないので事故は起きないが、たまたま運悪く穴が重なってしまうと事故になる。

なるほどよくできたモデルだ。事故を防ぐには、穴をたくさんみつけて1つ1つをなるべく小さくしたり、チーズを増やしたりする。そして対策のどれか一つでも効果を発揮すれば事故は防げるはずだ。