AI時代の到来で「トロッコ問題」が再燃! その「ワケ」と「解法」

法学者と情報学者の特別対談【PR】
平野 晋, 岡嶋 裕史 プロフィール

人間が介在する余地を残しておかないと致命傷に

平野 さらにこのとき、「まだ答えのない哲学的な問いに、自分で考えて答えを出す力」も必要になってきます。

岡嶋 ただ、最近の学生たちを見ていると、そうした大切な力を、AIに委ねたがっているような傾向をすごく感じます。

今の子たちはびっくりするほど真面目で、「親にお金をかけて育ててもらったから、就職は絶対に失敗したくない。間違えないAIがあるなら、AIに就職先を決めてほしい」と本気で口にします。

平野 自分より優れているもの、自分より正しい判断をしそうなものに囲まれて育っているから、間違えがないならAIに聞いちゃえばいいじゃない、ということですかね。

岡嶋 少し話がズレますが、僕は将棋が好きで、有段者だからアマチュアの中ではたぶん平均より上にいます。でも今、AIと指せば、100回中100回負けます。

そういう状況下では「勉強する意味」が見つけづらくなっていて、正解が知りたかったらAIに聞いてしまったほうが楽です。「就職先をAIに決めてほしい」という学生さんも、おそらくそう感じているんでしょうね。

平野 だとするとこの先、みんなが楽をしたいとなったら、「もうAIに任せておこうよ」となるかもしれない。核兵器のボタンもAIに委ねてしまった映画『ターミネーター』のSkynetみたいな事態ですね。

しかしAIに任せた就職先に満足できなかったらどうするつもりなんでしょうか。AIは責任をとらないでしょうから、やはり自己責任の原則に基づいて自分で選択しなければならないはずです。

線路すべて機械にまかせたら……? Photo by Getty Images

岡嶋 そうなんです。でもそれは、AIの発達によって、意思決定も外部化しようとしているということです。「自分で決める」という大切な意思決定能力を、外に出してしまっていいのでしょうか。一度外に出したものは、おそらく二度と戻ってはきません。

平野 そういう議論ができる場が必要だし、そうした場からきちんと考えることができる人を世に送り出していくことが、非常に大事なことだと思っています。我々iTLのカリキュラムもそこに貢献できるのではないかと思っています。

AIがどんなに発達しても、トロッコ問題のように「人間が判断しないとやっぱりダメなことがあるよ」とか、「人間が介在しないほうが正解の出る確率が高い場合もあるけど、そもそも正解の基準を作るのは人間であるべきだし、どこかで人間が介在する余地を残しておかないと致命傷になるよ」というところは必ず残ります。

そうした議論をするためには、情報技術と法律の判断に加えて、哲学に基づいた思考の訓練も絶対に必要になりますから。

岡嶋裕史平野晋氏(右)、岡嶋裕史氏(左) Photo by Naoko Hinoki

岡嶋 本当にそう思います。最後にトロッコ問題に話を戻すと、ちょっと前にツイッターで「解決した!」という人が現れて話題になりましたよね。

トロッコを右に行かせるか左に行かせるかで考えるから駄目だ、ポイントを中立の状態にすれば、トロッコは脱線して止まるから誰も死なない、と。

これが正解かどうかはさておき、そういう発想は今のAIの強化学習のスキームでは出てきません。

平野 最初に「Aを選ぶべきか、Bを選ぶべきか」と設定したら、AIは他を考えない。

岡嶋 ええ、だから、AでもBでもない、「中立にすればいいんじゃない?」という発想は、おそらくどんなに強化学習を繰り返しても出てこないはずです。

こんなふうに、想定外の発想、つまり「ヒトの考え」が入る余地を残しておくということも、すごく大事なことなのではないでしょうか。