2018.09.19
# 精密機器 # Apple

アップルが「機械学習」に注力するたった1つの理由

最新iPhoneが示す新しい世界戦略
西田 宗千佳 プロフィール

あえて「処理性能」は向上させず

新しいPCやスマートフォンというと、「処理性能が上がって、動作が速くなる」のがつねだ。新製品発表会でも通常、「CPU(中央演算装置)の速度が何倍になった」というプレゼンテーションが行われる。

新しいiPhoneである「iPhone XS(テンエス)」や「XS Max(テンエス マックス)」、「XR(テンアール)」も、前世代の機種に比べ、CPU性能は確かに上がっている。

だが、その上昇幅はさほど大きくはない。CPUそのものの速度は、15%しか上昇していないのだ。

では、新型iPhoneの心臓部であるSoCの性能があまり上がっていないのか? ……といえば、まったくそうではない。

SoCは、1つの半導体の上に、CPUやGPU(グラフィック処理用のプロセッサ)、メモリーコントローラー、メインメモリーといった、複数の機能をまとめて単一のパーツにしたものだ。その能力を予測するひとつの要素として、「SoCがどれだけのトランジスタで構成されているか」ということがある。

昨年発売された「iPhone X(テン)」に使われているSoCである「A11 Bionic」は、43億個のトランジスタを集積していた。それに対し、今年のiPhoneで使われる「A12 Bionic」は、69億個のトランジスタを集積している。

なんと60%も増えているのだ。これだけトランジスタが増えていれば、CPU速度も相応に上がっていそうなものである。

だが、アップルはそうしなかった。SoCのトランジスタを、“別の部分”に振り分けたほうがいい──、そう判断したからである。

 

大幅に強化された新機能とは?

ではいったい、増強したトランジスタを何に振り分けたのか?

まずはGPUだ。GPUは昨年のものに比べ、50%性能アップしており、相応の強化が図られている。メモリーを扱うコントローラーやカメラの映像を処理するISP(イメージ・シグナル・プロセッサ)も強化されている。

だが、それらに比べ、はるかに大規模で進化したのが「Neural Engine」と名づけられた部分である。

Neural Engineは、「マシンラーニング(機械学習)」の推論演算に使われる機構だ。ここ数年は、ざっくりとまとめて「AI(人工知能)」とよばれることも多い。

音声や画像の認識、学習結果からの予測などに使われるが、シンプルな積算をとにかく大量に、並列に、高速に行う必要がある。

アップルは、昨年の「A11 Bionic」から、Neural Engineを搭載している。CPUやGPUではなく、マシンラーニングの推論演算に特化した機構を用意することで、処理速度や処理に伴う消費電力の低下を狙ってのことだ。

このNeural Engineが、A11世代とA12世代とで劇的に進化しているのである。

前世代のA11 Bionicは「毎秒6000億回」の演算に対応していたが、A12 Bionicではこの数字が、じつに「毎秒5兆回」にまで増えたのだ。アップルによれば、演算能力だけでいえば最大9倍になったといい、同じ処理をする際の消費電力ではなんと「10分の1」に軽減されたという。

【写真】 新型iPhoneのSoC「A12 Bionic」の中身
  写真6 新型iPhoneのSoC「A12 Bionic」の中身。マシンラーニング用の「Neural Engine」の重要度が増している

関連記事