photo by gettyimages

Googleとアップル「最新スマホでカメラが劇的に進化した」理由

それでも一眼レフに勝てない1つのこと

2枚の写真の決定的な違い、わかりますか?

まずは、以下の2枚の写真をご覧いただきたい。

どちらもスマートフォンで、特別な工夫をせずに撮影したものだが、両者の画質には信じがたいほどの差が生まれている。

iPhone XSとXで撮った写真
  上が最新のiPhone XSで、下が昨年モデルのiPhone Xで撮影した写真。どちらも特別な操作はせず、ふつうにシャッターを切っただけだが、明らかな違いが生まれている

前者は2018年発売の「iPhone XS」によるもので、後者は2017年発売の「iPhone X」によるものである。

「なるほど、すごいセンサーに変わったんですね」

そう思う人もいるだろう。

だが、違うのだ。ちょっとした性能の差はあるものの、両者が使っているイメージセンサーやレンズに、ここまで劇的な表現の差を生み出す要素は含まれていない。

では、この1年間でいったい何が変わったのか?

ソフトウェアだ。それも、「俗にAIとよばれる」技術の成果によって、これほど明確な差が生じているのである。

このような写真の仕上がりの変化は、iPhoneだけで起きている現象ではない。むしろ、より劇的に、積極的に取り入れているのがGoogleだ。同社が11月に発売したスマートフォン「Pixel 3」も、AIによるカメラの画質向上を試みている。その成果も、やはり劇的だ(以下の写真参照)。

【写真】Pixel 3とiPhone XSで撮った夜景
  左がPixel 3で、右がiPhone XSで撮影した同時刻の夜景。Pixel 3で撮影した映像は、まるで昼間のように明るく写っている

iPhone XSやPixel 3などの先進的なスマホの内部で、いったいどのような変化が生じているのだろう?

それは、「Computational Photography(演算前提の写真生成)」という発想の徹底である。

デジカメは、写真を「計算」で生み出す装置

カメラの基本的なしくみ自体は、みなさんよくご存じだろう。

レンズを通して光を集め、それを記録する。銀塩写真の時代には、フィルムなどが記録媒体として使用されていたが、デジタルカメラではその役割をセンサーが担う。

iPhone XSやPixel 3も、映像記録をセンサーが担う点では変わりないが、センサーが取り込んだ光の情報を「どう写真にするか」の部分が変わってきている。

前提となるのは、デジカメの写真は基本的に、センサーが得た映像をそのまま記録したもの「ではない」ということだ。どんなに高性能なセンサーでも、サイズや製造上の制約などもあって、完璧な情報を記録するのは難しい。ノイズが多数含まれていたり、発色に特殊な傾向をもつ被写体は少なくないからだ。

一眼レフカメラなどに使われる大型で高価なセンサーは比較的偏りが少ないものの、コンパクトデジタルカメラやスマートフォンに使われる小型センサーでは、どうしても制約が多くなる。そこで、どのデジカメでも、センサーから出たデータはまず、「イメージ・シグナル・プロセッサー(ISP)」などとよばれる演算装置で処理され、我々が目にする「映像」に加工されている。

じつは、このプロセス自体は、デジカメが誕生して以来、あまり変わっていない。意外に理解されていないが、デジカメによる写真とは、そもそも「計算処理された結果を見ている」のであって、生のデータを見ているわけではないのだ。

デジカメは本来的に「Computational Photography」であり、最近になってそうなったわけではない。たとえば「美白モード」などの演出的な加工をほどこすカメラは、10年以上前にいわゆる「プリクラ」的な機器で導入されたものだ。やがて女性向けのコンパクトデジカメなどでも増えていき、中国系企業の開発するスマホでは現在、標準機能になっている。カメラを使うスマホアプリにも、「美白モード」や目を少し大きく写すモードなどが搭載されており、「Computational Photography」は決して珍しいものではない。