ケンブリッジ大学 ヒュー・プライス教授
AI ロボット

結局、人工知能の「本当の脅威」とは何なのか?

ケンブリッジ大教授が教えてくれた

「人工知能に職が奪われる」「人工知能に人類が支配される」――人工知能(AI)に関して、漠然とした脅威論を見聞きすることが多い。しかし、本当に準備しておくべきことは何か? どのような恩恵があるのか? どんなリスクがあるのか?

海外ではすでにAI倫理について方針を示す活動が始まっている。2017年1月、世界中の主要人物が集結したアシロマ会議では「アシロマ23原則」というガイドラインが提案され、米国電気電子学会(IEEE)はAIがもたらす倫理的課題について検討する「Ethically Aligned Design」という文書を公開。日本からは、人工知能学会が「人工知能学会 倫理指針」を発信している。

米国を中心としてグーグル・フェイスブック・アマゾン・IBMなどAI開発を行う企業同士も協力体制を築き、AIの倫理的な利活用を実現するための団体「Partnership on AI」を立ち上げている。また、中国でも同様な活動が始まっていると聞く。しかし、日本やアジアの研究者や企業は、こうした議論において大きな遅れを取っている。

現在私は国内外の連携の強化を実現していきたいという思いから、海外との架け橋となるべく「AI and Society(人工知能と社会)」と題したシンポジウムを、ケンブリッジ大学のヒュー・プライス教授、東京大学の「次世代知能科学研究センターのセンター長を務める國吉康夫教授らと企画している(2017年10月、東京で開催)。

今回、この共同企画者であり、ケンブリッジ大学に拠点を持つ「リバーヒューム・知性の未来センター(Centre for the Future of Intelligence、CFI)」のセンター長であるヒュー・プライス教授に、AIが社会にもたらす影響と倫理的配慮について伺った。

AIの「本当のリスク」とは?

金井 いまAIについて様々なリスクが語られています。実際のところ、AIを開発する際、考えなければならない脅威には、どのようなものがあるのでしょうか。

AIの応用についての短期的・実質的な問題と、将来開発されるかもしれないAIについての長期的な問題を区別して考えることが重要だとよく言われています。プライス教授は、どのようにお考えでしょうか。

プライス教授 最初に断っておかなければなりませんが、私は哲学者でありAIの技術の専門家ではありません。そのため、私の答えは、多くの専門家の意見を元にしたものです。

まず、長期的な観点で最も重要な問題は、「魔法使いの弟子」問題と呼ばれているものです。将来、強力なAIができたときに、自分たちが求めていることを正確に伝えなければ、何をしでかすかわかりません。AIはプログラムに従って動き、人間が設定した目的に向かって機能の最適化を行うものだからです。

 

AIが与えられた目的を達成しようとすることで、元々は想定していなかったような酷い状況に陥ってしまうこともあるでしょう。その意味で大きなリスクを抱えているのです。

たとえば、目的を達成することだけ目標とするものすごく賢い機械が現れたとしたら、その機械は目的を達成するためにあらゆる作成を考えて、自分の電源が切られてしまわないようにするということまで考えを巡らせるでしょう。

これはスチュワート・ラッセル(カリフォルニア大学バークレー校教授)が挙げていた例ですが、優れた家庭用掃除ロボットは、自分のコードに引っかかって転んでしまったり、穴に落ちたりしないように、危険を察知する必要があるでしょう。

そうなると、ロボットに目的をもたせることで、自分自身の存在を維持するような機能を持ち始めるでしょう。そのようなロボットが現れることが、 長期的な脅威の始まりです。

短期的な観点でのAIのリスクは、人間の存在を脅かすほどの壊滅的なものではありません。強力なテクノロジーが予期していなかった社会的な影響を及ぼしたり、予期していたりしても、対策ができていないようなことはあると思います。

例えば、AIによって多くの人が職を失ったり、個人のプライバシーの侵害が起きてしまったりすることなどが、短期的で実質的なリスクでしょう。