# AI # 倫理

なぜいま「ロボット倫理学」が必要か〜問題はすでに起きている

もしAIに判断を丸投げしたら…
岡本 慎平 プロフィール

AIが起こした事故は誰のせい?

例えば昨年、レベル2(加速や操舵などの操作の一部をシステムが代行するレベル)の自動走行システムを搭載した米テスラの電気自動車が人身事故を起こし、運転手が死亡したというニュースがあった。

その際、「自動運転車が事故を起こした場合、その事故の責任はどうなるのか?」という問題が注目を集めた。

もちろん、人工知能の動作により人々が危害を被った場合の責任問題は法的にも倫理的にも議論が必要だが、特に自動運転車に関して「ロボット倫理学」が必要とされる状況は、正常な作動の結果として不可避的に事故が生じる場面にある。

倫理学でおきまりの「トロッコ問題」を例に、少し考えてみよう。

今ここに、自動化レベル4(人間は目的地を設定するだけで、走行中の制御は全てシステムに委ねられるレベル)の自動走行システムが実現したと想定しよう。そしてそのシステムは、きわめて正常に作動している。

ところが、そのシステムを搭載した自動運転車の走行中、目の前で事故が起こり、複数の人間が車線上に投げ出された。このまま進めば多くの人命が失われる。もし対向車線に大きくはみ出せば、その5人の命は助かるが、対向車が巻き込まれてその運転手が命を落とす。道路の反対側は崖になっており、そちらに向かえば自動運転車に乗っている人間が犠牲になる。

そのまま進むか、被害の少ない対向車線に向かうか、それとも自己犠牲か。どれか一つしか選べないとき、自動運転車の走行システムはどの選択肢を選ぶようにプログラムされるべきなのか?

 

そこでさらに、自動運転車のシステムが、倒れている人々と対向車の運転手を瞬時に認識し、それぞれの年収、年齢、病歴などを参照した上で、最も損害額が少なくなるような判断をするように設計できると想定しよう。

そうすれば、どの選択肢を選んでも何らかの被害が生じる状況でも、最善の選択が出来るように見える。だが、たとえそのような判断が技術的に可能になったとしても、それを実装するべきではない。

なぜなら、人工知能が対向車の運転手を「この人間はすでに大病を患っているため、優先度が低い」などと判断したことによって自動運転車が対向車線に飛び出すようになってしまえば、優先度を低く設定された人々だけに、自動運転車が引き起こす事故に巻き込まれるリスクが高まってしまうことになるからだ。

結果として、自動運転が普及することで交通事故の数そのものは減少したとしても、事故のリスクを含めた社会的格差は今よりいっそう大きなものになってしまう。言い換えれば、「命に値段をつける」ことになってしまうのである。

だからといって、「事故が起こった際には自分を犠牲にする」と設計されたシステムにはほとんどの人々が乗りたがらないだろう。以上の例は思考実験だが、完全自動運転が実現した際には必ずどこかで起こりうる問題でもある。

走行システムがどのように判断することになるのかは将来の技術者や自動運転をとりまく交通法規、あるいは今後の保険制度の仕組みによって変わるだろう。ただし、そのような状況での判断基準を何らかの形で設定しなければならないことだけは確実である。