〔PHOTO〕gettyimages

話題のAIスピーカー「アレクサ」に思わぬ弱点があった

まさかのセキュリティ・ホールが発覚

アマゾンのAIスピーカー「エコー(アレクサ)」の発売以来、急速に人気が高まってきたスマート・デバイスの音声操作機能。だが、最近そこに思わぬセキュリティ・ホールが発見された。

私たち人間には聞き取れないが、機械にだけは聞き取れるサブリミナル・メッセージを音声や音楽などに忍ばせることで、スマホやAIスピーカーを外部の第三者が自由自在に操れるというのだ。

Alexa and Siri Can Hear This Hidden Command. You Can't.”  The New York Times, May 10, 2018

お金を盗まれたり、部屋に侵入される恐れも

このショッキングな研究成果を発表したのは、米カリフォルニア大学バークレイ校の科学者チーム。彼らは録音された音声メッセージや音楽に巧妙な命令を忍ばせ、これをユーチューブなどから流すことで、AIスピーカーのようなスマート・デバイスを秘かに操作することに成功した。

 

これにより本来の利用者がスマート・デバイスの電源を入れた状態で音楽を聴いたり、動画を見たりしている間に、(自分のアカウントを通じて)悪意を持った第三者から勝手にオンライン・ショッピングをされたり、自分のお金をどこかに送金されたり、甚だしい場合にはドアのロックを外されて部屋に侵入されたりする恐れが出てきたという。

このような危険性が生まれたのは、現在の人工知能(AI)における、以下のような技術的陥穽のためだ。

一般にAIスピーカーやスマホの音声操作機能では、先端AIの一種「ディープラーニング(ディープ・ニューラルネット)」による音声認識機能がそのベースとして使われている。

ディープラーニングは人間の脳をある程度模倣して作られているが、不思議なことにモノを見たり聞いたりするときには、人間の場合とは全く異なる特徴量に注目して対象を認識している。

このため、悪意を持ったハッカーらが、本来の音声信号に極めて微弱な波形(ノイズ)を重ね合わせるだけで、私たち人間の耳が聞き取っているのとは全く異なるメッセージを(こうしたAIを搭載した)デバイスに送ることが可能になるのだ(図1)。

図1)ディープラーニングの騙し方:本来の音声信号に極めて微弱なノイズ(波形)を重ね合わせるだけで、本来のメッセージとは完全に異なるメッセージをスマート・デバイス(機械)に送ることができる。しかし人間の耳には、本来の音声信号(メッセージ)しか聞こえない。
出典:“Audio Adversarial Examples: Targeted Attacks on Speech-to-Text,” Nicholas Carlini, David Wagner, University of California, Berkeley

この続きは、プレミアム会員になるとご覧いただけます。
現代ビジネスプレミアム会員になれば、
過去の記事がすべて読み放題!
無料1ヶ月お試しキャンペーン実施中
すでに会員の方はこちら