もはや見破ることは不可能…?AIで深刻化するフェイクニュース

何が本当で何が嘘か分からなくなる
小林 啓倫 プロフィール

実在しないセレブも生み出せる

では実在しない人物の場合はどうか。そもそも実在していないので、映像の人物が本物かどうか判断することは、人間であっても難しい。そしてGANは、実在しない人物のコンテンツをつくり上げることにも威力を発揮している。

米半導体大手の『エヌビディア』は、昨年10月、GANをつかって「セレブっぽい」人物の表情をつくることに成功したと発表した。その映像がこちらだ。

彼らは約3万枚分のセレブの顔写真データをAIに与え、20日間かけて前述の「いたちごっこ」をさせることで、この結果に至ったそうである。

確かにまだ手軽に使える技術ではないが、これまであらゆるデジタル技術が短時間で進化してきたことを思えば、ほんの数年のうちに誰もが駆使できる技術になっていてもおかしくない。

実は同様の取り組みは、日本でも行われている。京大発のベンチャー企業『データグリッド』が、約20万枚のアイドル画像から「アイドルっぽい」女性の顔写真をGANにより生成させている。以下がその映像だが、ちらっと見ただけなら、某アイドルグループの総選挙に出ていたと言われても信じてしまうかもしれない。

有名人ではなく、「〇〇っぽい人物の映像」も、フェイクニュース制作者には使い勝手が良いだろう。たとえば人種差別や対立を煽るために、特定の人種が別の人種に暴行を働いているような映像を制作し、ネット上にアップしたらどうなるだろうか。

特定の人物を描いたものでないだけに、「〇〇さんはそんなことしない」と否定することはできない。被害者の映像もフェイクでつくってしまえば、被害者の側から否定することもできなくなる。「〇〇人が〇〇人を襲ったらしい」というニュースが、瞬く間に拡散してしまうだろう。

 

AIの軍拡競争が生み出す、人間には簡単に太刀打ちできないフェイクニュースの世界。それに少しでも対抗するには、私たちはこれまで以上に、常識やリテラシーと呼ばれるものに頼るしかないのだろう。

本当としか思えないニュースや映像こそ、逆に疑ってみたり、1本のニュースを鵜呑みにするのではなく、複数のソースを当たってみたりすること。そうした従来から言われてきたアドバイスを、もう一度心に刻み込む必要がありそうだ。