「なぜ知性は存在するのか」巨大な問いに挑む「物理学帝国」の逆襲

『ディープラーニングと物理学』考察
田中 章詞 プロフィール

たとえば由緒正しい機械学習の理論は、確率論や最適化などの様々な数学を駆使しながら、機械学習の方法の理論的な適応限界を示してくれますし、深層学習の研究をするにしても、それらの方法に基づいた方法やその拡張を考えるのが一番保守的なアプローチでしょう。

物理学から深層学習を眺める

それでも、物理学の立場から深層学習の方法を眺めてみると、いくらか恩恵があるのはたしかです。

たとえば入門書を眺めていると、ニューラルネットワークの誤差を測る関数は問題ごとに色々に変えなければいけない、とあります。これはそういう習慣なのだろう、と初めは思われるかもしれませんが、実はきちんとした理由があります。

このことは統計力学の立場から定式化すると自然に理解することができます。この定式化ではニューラルネットワークを決定論的と思わずに、確率論的に捉えるのがポイントです。というのも、たとえば入力画像が犬か猫かを判別する問題の場合でも、場合によっては入力画像に犬と猫が両方写っていたりするかもしれないわけです。

犬と猫Photo by iStock

そのような場合、同じ画像でも、あるときは「猫が犬よりたくさん写っている」から猫だと判別するかもしれませんし、「犬が一番大きく写っている」から犬だと判別するかもしれません。

このような場合も考慮に入れるためには、確率的な定式化のほうが良いのです。そして確率論的な描像であれば、統計力学で扱いやすい対象となります。統計力学的な立場から機械学習を捉え直すと、上で述べたような「習慣」に見えたことや、その他の設定が自然な形で理解できるようになるのです。

また、ニューラルネットワークの解説で必ず出てくる「誤差逆伝搬法」というのがありますが、これは少しでも大学の数学を勉強したことがある方なら、じっくり睨むと何をやっているか、何が嬉しいのか、理解できることです。

しかし、見た目が煩雑であるため、初見では何が嬉しいのか分かりづらいかもしれません。一方で「量子力学とは線形代数である」という(おそらく大多数から同意が得られるであろう同一視をする)ことにすると、量子力学で発展した記法を用いることで、その記法に慣れ親しんだ方ならただちに「誤差逆伝搬法」の意味することを理解できます。

このように、物理学をいったん一通り学び終えた人や物理学者の目からみて「機械学習の方法のAは物理学でいうBで説明できるな」と腑に落ちることが多数あるのは、まぎれもない事実です。これらの対応を発展させれば、もしかしたら物理学的な視点から何らかの新たなアイデアを提供できるのかもしれません。

また、多くの物理学者が興味を持っているのは、深層学習を物理学の研究に応用できないか、という方向です。というのも、物理学における興味の対象は「たくさんものが集まって何が起きるか」といったタイプのものである場合が多いからです。

このような場合、組み合わせの妙により、あり得るパターンが爆発的に増えてしまい、「何が本質的なのか」とか「その中で欲しいパターンはどれか」等といった疑問が生じます。このような仕事を機械学習で自動化し、新たな物理を見つけたいと思うのは自然なことだと思います。

数年前までは、単に「機械学習を使ってみた」という段階の研究論文が多かった印象ですが、ここ数年でもう少し意味のある研究成果が現れてきています。