「超知性」が人類を滅ぼす日は来るのか〜欧米人が真正面から危惧している文化的理由

池田 純一 プロフィール

実際、人類絶滅は「極限的にクリティカル」な課題として、人類全体の利益を調整する機関である国連でも扱われている。地球科学や生態学・人類学等が総動員される課題だ。その人類が対処すべき問題系の一つにAIが登録されたわけだ。その背後には、現代が「人新世」であるという認識が定着してきたこともある。

「人新世(Anthropocene)」とは地質学の世界で言われ始めた時代区分であり、産業革命以後の現代の「地質」はもはや地球に対する人類の(技術的)干渉無しでは考えられなくなった事態を表している。

人間の手付かずの揺るぎない大地がそこにあるわけでなく、いわば人間が飛び上がって着地すればそれとわかるくらい地球が動いてしまうと捉えてもおかしくないような、人類と地球が相互干渉する状況を指している。

最悪のシナリオを回避せよ

ところで、前々回紹介したピーター・シンガーを世界的な倫理学者にしたのは、彼の功利主義的思考が行き着いた先に提唱された「動物の権利」という概念だった。そうして功利主義の特徴の一つである「包括性」は、地球上の非人間的存在にまで拡張された。

同様の包括的拡張を「遠未来」にまで講じたのがAIの人類への影響であり、これがEAの文脈では「人類絶滅リスク」として捉えられる。

この人類絶滅リスクをもたらすような超知性の可能性について積極的に論じているのが、オックスフォード大学教授のニック・ボストロム(Nick Bostrom)だ。実は、イーロン・マスクがAI懐疑派になった直接の原因は、彼がボストロムの著書である“Superintelligence(未訳)”を読んだことにある。もう一人の大物AI懐疑派であるスティーブン・ホーキングもボストロム本の読者の一人だ。

人類絶滅という観点からここで問われていることは、ハイテク投資の果てに開発される未来の「何か」が、果たして人類の生存にプラスになるのかマイナスになるのか、という問いだ。

この問いはもちろん、答えの確定しないものであるが、しかし大事なことは「人類絶滅」という最悪のシナリオを一旦は想定し、そのような事態を生じさせないためにはどうすればよいのか、という思考フローを定着させるところにある。

裏返すと「人類絶滅」が回避されるならば、目の前にあるハイテクの研究開発はさしあたって肯定される。