Googleとアップル「最新スマホでカメラが劇的に進化した」理由

それでも一眼レフに勝てない1つのこと
西田 宗千佳 プロフィール

画像処理に使われているAIとは?

このような画像処理技術は、メーカー側の説明では「AI」の一言でくくられがちだ。

だが、実際には少し違う。多数(最低でも数百万枚)の画像を用いた機械学習による画像加工の手法を「AI」と呼称してはいるものの、顔認識とデジタルズーム用の超解像はまったく異なる技術であり、「多数の技術の集合体」といえる。

顔認識はセキュリティなどの領域から生まれた技術が応用されたものだし、超解像技術は天文観測の分野で、観測機器から得られた映像を解析する技術に由来するものである。いずれも核となっているのは「機械学習」であり、処理を高速化するための要素は共通だ。

そして、今年登場したハイエンドスマートフォンでは、こうした処理に向いた半導体技術が強化された。

GoogleがPixel 3に使っている「Pixel Visual Core」も、アップルがiPhone XSに使っている「A12 Bionic」に搭載されている「Neural Engine」も、画像処理や機械学習に向いた半導体であり、一般的なアプリの処理を高速化するものではない。だが、そうした技術を搭載した結果、iPhoneやPixelは「Computational Photography」を本格的に導入し、写真の画質を大幅に改善することが可能になった。

半導体と機械学習、両者の進化の歩調がそろい、「映像を処理するために生み出された多数の技術」が、ビジネス的に大きな価値をもつスマホの分野に集結しているのが、今の状況といえる。

Googleの技術者である前出のArcas氏は、「私見ではあるが、半導体の99%は今後、機械学習の効率的な処理のために使われるようになるだろう」と予測する。

音声認識や文章解析など、カメラ以外にも機械学習の用途は多い。カメラの画質が劇的に向上した現在の状況を見れば、その発想も頷ける。

「美しい写真」はスマホには撮れない!?

一方で問題となるのは、「写真が美しい」ということを誰が担保し、定義するのかということだ。機械学習で画質を向上させるには、学習元となる「良い写真」「悪い写真」が必要になる。その差をどう判断するのか、そこが重要だ。

学習の結果生まれる写真は、どうしても多様性に欠ける。素人目線でいえば簡単でいいのだが、人間が行うのはシャッターを切ることだけであり、「写真の良さ」を決めているのはソフトウエアが学習した結果である。だから、「一様に良い写真」になる。

しかし、写真による表現とはもっと深く、幅広いものだ。

同じ風景であっても、レンズやシャッタースピード、色の調整によってまったく異なる作画になる。それを意図した形で実現することこそ、「写真のプロ」の技だ。

「一様に良い写真」を確実に撮影できるスマホが出てくると、「一眼レフに代表される大型のカメラは要らなくなるのでは」と思う人もいそうだ。だが、写真を作品としてつくり上げていくには、スマホだけでは難しい。

レンズ交換式の高級カメラを使うこと、そして、撮影のための技術を学ぶことは、「個性のある良い写真」を生み出すために必要不可欠なものだ。また、画像加工用のアプリや、特別な撮影を可能にする専用アプリなども、「標準的なカメラアプリ」とは別の使われ方をしていくことになるだろう。

Pixel 3やiPhone XSが備えるカメラ機能は、「日常の撮影はこれでいい」と十分に安心できるものだ。大勢の人にとっての“貴重な一瞬”は、そのより多くがスマホで撮影されていくだろう。

そして、一眼レフなどで味のある写真を撮ることは、より「画材と絵筆」のような存在になっていく……、と強く感じるのだ。

一眼レフなどで味のある写真を撮る
  一眼レフなどで味のある写真を撮ることは、より「画材と絵筆」のような存在になっていくのではないだろうか photo by gettyimages