医療・健康・食
テスラ車の死亡事故から、人類が学ぶべき「絶対にやってはいけないコト」
自動運転が人を殺さないために
自動運転機能「オートパイロット」作動中の様子 〔PHOTO〕gettyimages

文/島崎敢(心理学者)

テスラの死亡事故はなぜ起きたのか。ドライバーに責任があるのか、それとも自動運転に欠陥があるのか。いやいや、大切なのは「誰のせいか」ではないんです。リスク管理のプロ、島崎氏が解説します。

アメリカの電気自動車メーカー、テスラ・モーターズの自動車がトレーラーと衝突事故を起こし、ドライバーが5月7日亡くなった。今回の事故は自動運転機能である「オートパイロット」作動中に発生したもので、自動運転中に発生した最初の死亡事故ではないかと言われている。

自動運転と交通事故という2つのトピックが合わさると、必ず沸き起こるのが「誰が責任を取るのか」という議論だ。今回の事故でも「ドライバーはDVD視聴中か?」という報道が出て話題になっている。テスラ社はオートパイロット作動中も安全の責任を負うのはドライバーであると主張しているが、一方でアメリカの運輸省はシステムの動作に問題がなかったか調査を始めている。

今回の事故が誰の責任かはさておき、この事故を参考に責任追及と原因究明について考えてみたい。

人間の脳が不得意なこと

運転全体を100とした場合、古典的な運転は、人間とシステムが受け持つ割合が100:0になる。完全な自動運転は0:100ということになるが、現在はこの中間的な段階だ。90:10ぐらいの状態。つまり、大部分を人間が運転し、システムが少しだけ助けてくれるぐらいの段階で起きた事故がドライバーのせいだと言われても違和感はない。

もう少し自動化が進んで、 50:50ぐらいになってくると話は少しややこしくなってくる。受け持ち割合が同じぐらいだと、人間とシステムの意思決定の対立が生まれて操作を取りあう可能性が出てくる。人間は左に避けたいのにシステムは右に避けたい場合、ハンドルを取り合っているうちに衝突するということが起こりかねない。

ただし、これは対立が起きた時にどちらに権限を移譲するのか、あらかじめ決めておけば大した問題にはならない。例えば「対立が起きたらシステム側は権限を人間に明け渡す」と決めていれば、人間がどうにかすればよいわけだ。この場合も責任が人間だと言われても違和感はない。

問題はさらに自動化が進んで、人間対システムの割合が10:90とか1:99になっていった場合である。人間がほとんど運転する場合には、人間にはやらなければならない仕事がたくさんある。ところが、システムの割合が多くなればなるほど、人間側の仕事は減っていく。そして最終的には「ほとんど問題は起きないが、ごく稀に問題が起きた時だけ人間が対処する」という状況になるが、これは人間にとって不得意なことなのだ。

というのも、人間の脳は省エネにできているので、仕事がないときは休もうとして覚醒レベルを落とす。あるいは覚醒レベルを維持するために他の刺激を見つけようとする。テスラのドライバーがDVDを見ていたかどうかはわからないが、運転のほとんどが自動化されてやることがなくなってくると、ドライバーの覚醒レベルは下がってしまう。

そして、すごく低い確率なのかもしれないが、そんな油断しきった状態の時に、システムから突然運転を移譲されるのだ。しかも運転を移譲されるのは、システムがお手上げになったとき、つまり、かなりシビアな状況の時だ。