〔PHOTO〕gettyimages
AI 倫理

なぜいま「ロボット倫理学」が必要か〜問題はすでに起きている

もしAIに判断を丸投げしたら…

「ロボット倫理学」とは何か?

21世紀に入ってすでに16年が過ぎた。我々は、かつて小説や漫画や映画で描かれた輝かしい(あるいは恐ろしい)近未来、あの21世紀を生きている。

もちろん「SF物語に描かれた21世紀」と「現実の21世紀」の間にある隔たりは大きい。我々は鉄腕アトムが空を飛ぶ風景を見ることはないし、自我に目覚めたスカイネットの人間狩りに怯えることもない。

ただし、「現実」の21世紀でも、かつてのSFと同様に(あるいはそれ以上に)重要な問題が生じている。その一つが「ロボット倫理学」と呼ばれる新興学問領域だ。

これは、「ロボットが備えるべき倫理」を考える学問であり、その反対に「ロボットを扱う際に必要な倫理」を探求する学問でもある。

とはいえロボット倫理学は、「人工知能が本当に倫理を理解することは出来るのか?」とか「人間と区別のつかないロボットが作られたら彼らに人権を認めるべきなのか?」といった、現時点ではいつ実現するのか分からない遙か未来の問題を扱う空想的な分野というわけではない。

むしろ、今実際に起こりつつある問題を扱うからこそ、注目が集まっているのである。

日に日に広がる判断領域

人間による直接的な操作や制御がない状態で人々の福利に大きな影響を与える業務に従事する機械やソフトウェアは、実験段階のものを含めればすでに多数存在する。

例えば、戦場で自動的に敵味方を識別し、敵兵を狙撃する陸戦用ロボット。人間の運転手がハンドルを操作しなくても適切な車線を認識し走行する自動走行システム。高齢者のベッドからの乗降や入浴・排泄などの介助をおこなうケアロボット。

あるいはそのような身体としてのハードウェアは持たなくても、画像識別や他言語への翻訳、はては株式売買などの決済をサポートするネットワーク上の人工知能──。

ひとまず、これらロボットと人工知能を総称して「自律機械」と呼びたい。

 

もちろん、それぞれの「自律性」には程度の差があり、完全に人間の手を離れて作動するものばかりではない。

さらに、実用化を視野に開発が進められているとはいえ、これらの機械やソフトウェアは人権に配慮した道徳判断を下す能力を有しているわけではなく、モラルに従おうと意図して作動しているわけでもない。

その意味では、「自律機械に倫理が必要だ」と主張すると、過剰な擬人化に陥ってしまい、今の自律機械に実行不可能なこと(倫理的判断)を自律機械にやらせようとする無謀な試みに繋がりかねない危険もある。「できないこと」を「するべきだ」と言っても益はない。

だがその一方で、自律機械に判断が委ねられる領域が日に日に拡大していることは事実であり、その結果として、自律機械の振る舞いによって人々が被る影響も、良くも悪くも増大しつつある。