もはや見破ることは不可能…?AIで深刻化するフェイクニュース

何が本当で何が嘘か分からなくなる
小林 啓倫 プロフィール

ジェネレーターとディスクリミネーター

こうした高度なフェイクコンテンツは「ディープフェイク」と呼ばれるようになっており、世界各国で問題になり始めている。なにしろCGなので、制作者の思うがままの行動を映像内の人物に取らせることができる。

そう聞いていかがわしいコンテンツが頭に浮かんでしまったという方、妄想を実行に移しさえしなければ、別に恥じる必要はない。実際に海外では、ポルノ作品の登場人物の顔を、有名女優と挿げ替えた映像をつくる人々が登場している。

あまりに違和感がなく、本当に信じる人も少なくないため、こうしたコンテンツの制作自体を法律で禁じてしまおうという動きがあるほどだ。

photo by iStock

ならば先ほどのボットのように、AIでフェイク映像見抜いてはどうか、と思ったかもしれない。それが可能ならば何の問題もないのだが、実はこのGANという技術が持つ特徴によって、フェイクか否かを自動的に見抜くことが難しくなっている。

GANの和訳には、「競争式」という言葉が当てられている(「敵対的」と訳す場合もある)。

なぜ競争式と呼ばれるかというと、GANのAIには2つの役割が与えられており、一方はデータをもとに新たなコンテンツをつくる役「ジェネレーター」、もう一方はそのコンテンツが本物か否かを見破る役「ディスクリミネーター」を演じるからである。

ここがポイントで、ジェネレーターはディスクリミネーターからのフィードバックを得ると、それに基づいて何がダメだったのかを分析する。

そして次回はさらに「本物らしい」データを作成して、それを再びディスクリミネーターに評価してもらい、フィードバックを得る。これを繰り返すことで、非常に精巧な偽造データが完成するというわけだ。

 

このように、GANはAI同士のいたちごっこによって、コンテンツをつくり上げる仕組みであるため、そのコンテンツの真偽をAIに判断させるのが非常に難しい。最後の砦は人間で、「オバマ前大統領がこんな口汚い言葉を使うのはおかしい」といった常識的な判断でフェイクを見破るしかない。

とはいえフェイクニュースの制作者たちは、「実はこの人物は裏でこんなことをしているのではないか」という人々の疑念を上手く突いてくる。

「オバマだって隠れてトランプを罵倒しているはずだ」などといった不信感を抱いている人物に、先ほどの映像を見せたら――嬉々として映像をソーシャルメディア上に投稿し、自分と同じような人々に情報を発信して、フェイクニュースの拡散に協力してしまうだろう。