あえて「処理性能」は向上させず
新しいPCやスマートフォンというと、「処理性能が上がって、動作が速くなる」のがつねだ。新製品発表会でも通常、「CPU(中央演算装置)の速度が何倍になった」というプレゼンテーションが行われる。
新しいiPhoneである「iPhone XS(テンエス)」や「XS Max(テンエス マックス)」、「XR(テンアール)」も、前世代の機種に比べ、CPU性能は確かに上がっている。
だが、その上昇幅はさほど大きくはない。CPUそのものの速度は、15%しか上昇していないのだ。
では、新型iPhoneの心臓部であるSoCの性能があまり上がっていないのか? ……といえば、まったくそうではない。
SoCは、1つの半導体の上に、CPUやGPU(グラフィック処理用のプロセッサ)、メモリーコントローラー、メインメモリーといった、複数の機能をまとめて単一のパーツにしたものだ。その能力を予測するひとつの要素として、「SoCがどれだけのトランジスタで構成されているか」ということがある。
昨年発売された「iPhone X(テン)」に使われているSoCである「A11 Bionic」は、43億個のトランジスタを集積していた。それに対し、今年のiPhoneで使われる「A12 Bionic」は、69億個のトランジスタを集積している。
なんと60%も増えているのだ。これだけトランジスタが増えていれば、CPU速度も相応に上がっていそうなものである。
だが、アップルはそうしなかった。SoCのトランジスタを、“別の部分”に振り分けたほうがいい──、そう判断したからである。
大幅に強化された新機能とは?
ではいったい、増強したトランジスタを何に振り分けたのか?
まずはGPUだ。GPUは昨年のものに比べ、50%性能アップしており、相応の強化が図られている。メモリーを扱うコントローラーやカメラの映像を処理するISP(イメージ・シグナル・プロセッサ)も強化されている。
だが、それらに比べ、はるかに大規模で進化したのが「Neural Engine」と名づけられた部分である。
Neural Engineは、「マシンラーニング(機械学習)」の推論演算に使われる機構だ。ここ数年は、ざっくりとまとめて「AI(人工知能)」とよばれることも多い。
音声や画像の認識、学習結果からの予測などに使われるが、シンプルな積算をとにかく大量に、並列に、高速に行う必要がある。
アップルは、昨年の「A11 Bionic」から、Neural Engineを搭載している。CPUやGPUではなく、マシンラーニングの推論演算に特化した機構を用意することで、処理速度や処理に伴う消費電力の低下を狙ってのことだ。
このNeural Engineが、A11世代とA12世代とで劇的に進化しているのである。
前世代のA11 Bionicは「毎秒6000億回」の演算に対応していたが、A12 Bionicではこの数字が、じつに「毎秒5兆回」にまで増えたのだ。アップルによれば、演算能力だけでいえば最大9倍になったといい、同じ処理をする際の消費電力ではなんと「10分の1」に軽減されたという。
