人工知能が「意識を持てるか」という超難問に答える

100年後の世界に向けた哲学
金井 良太 プロフィール

AIを人道的に扱う未来

金井:機械が主観的な感覚を持つと考えていらっしゃることがわかりました。最近、AIの倫理について多方で議論する機会が増えているのですが、そこではAIを人間は制御できるのかという「コントロール問題」などが話題になりがちです。AIが賢くなりすぎたら、人間の手に負えなくなるのではないかと。

しかし、AIが主観的感覚を持つというのは、全く別の倫理的課題が生まれてきます。もしAIが自己意識を持ち、主観的感覚さえ持つようになったら、我々はAIの感じる痛みや苦しみといったものについても考慮する必要がでてくるのではないでしょうか。

もしかしたら、人間が他の動物をどう扱うかという問題に似ているかもしれません。こういった可能性について考えるべきでしょうか、あるいはまだまだSF映画の領域で現実味のないものと考えるべきでしょうか。

〔PHOTO〕iStock

リプソン教授:現時点では、AIの持つ意識はバクテリアレベルのものです。だから、AIの苦しみに関する倫理については心配ありません。

しかし、AIのレベルが今後向上し自己意識を持ち始め人間レベルに近づいてくると、倫理の問題が浮上してくるのは、そのとおりです。人工システムがどれほどの自己意識をもっているのか測るようなシステムも実現されるかもしれません。

人間レベルの自己意識は次の10年は生まれないでしょう。もしかしたら50年ぐらいかかるかもしれません。しかし、今から2世紀のうちには、「人道的なAIの扱い」は間違いなく必要になっているでしょう。

動物をどのように扱うべきかという倫理的問題と同じような扱いから始めて、少しずつAIに適用していくのが良いでしょう。

 

金井:そうなると、将来はAI研究をするのに倫理委員会での承認が必要になるかもしれませんね。

リプソン教授:確かにいつかはそうなります。しかし、まだその時代は来ていないと認識しておく必要があります。

現状、バクテリアレベルかそれ以下の意識しかできていないのですから。倫理委員会もバクテリアの倫理的扱いについては議論していないでしょう。

しかし、100年後にはAIを他の動物や人間のように考えないといけないでしょう。

関連記事

おすすめの記事