〔PHOTO〕iStock

女性の声のAI、性的な広告...炎上は「悪気のない偏見」から生まれる

私たちの中にある「暗黙バイアス」

なぜ「AIの声」の初期設定は女性なのか

ユネスコ(国際連合教育科学文化機関)が先月発行した報告書が話題になっている。

「I'd blush if I could: closing gender divides in digital skills through education(赤面できたらしています:教育を通じてデジタルスキルのジェンダー格差を縮小する)」というタイトルで、世界各国のデータに基づき、理系分野に進学・就職する女性が少ないこと、デジタルスキルに男女格差があることなどを示している。

150ページ近い報告書の中で特に注目されたのは、後半部分だ。Appleの「Siri(シリ)」やAmazonの「Alexa(アレクサ)」をはじめ、Google、Microsoftのものなど、初期設定で女性の声が使われているAIパーソナルアシスタントについて、「性差別が助長されることを懸念する」と記されていたからだ。

〔PHOTO〕iStock

報告書のメインタイトルである「I'd blush if I could(赤面できたらしています)」は、Siriがセクハラ発言を受けた時に返すフレーズからきている。人間からセクハラ発言を受けた時、Siriは「やめてください」と反論することはなく、怒ることもない。報告書はSiriのこうした反応が女性に対する一定のイメージを植え付けるとして問題視している。

報告書の中には日本の金融機関の例も挙げられている。消費者の命令に従ったり、要求されたことに応えたりする「従順な役割」を果たす時は女性の声、何かを決定する時は男性の声という具合に「目的によって使い分け」をしているためだ。

 

各種の調査研究を踏まえ、ユネスコの報告書はAIパーソナルアシスタントの初期設定に女性の声を使うことは現存するジェンダーバイアスを反映し、それを強化するものである、と結論づけている。ジェンダーバイアスとは、女性は従順で扱いやすく、人助けをしたがり、頼まれたらすぐに対応する……といった特定の性別に対する偏見のことを指す。

コンピュータ業界で働く人の圧倒的多数が男性だ。これがジェンダーバイアスのかかったAIを生み出すことにつながっており、解決のためには、理系教育におけるジェンダーギャップを認識し是正する必要がある、とも報告書では語られている。

ジェンダーアンバランスによって無自覚のジェンダーバイアスが生まれるこの構造は、実は、近年あとを立たない企業広告の炎上にも見てとれる。