ディープラーニング革命
コロナ騒動は、ニュートン的科学の限界を示す事件かもしれない。ウイルスの複雑な動きを単純なSIRモデルで記述した疫学者が世界中で大失敗し、予測にも対策にも役に立たなかった。ウイルス感染のような非線形の現象をニュートン力学をモデルにした微分方程式で近似する方法論が間違っていたのだ。

計算機科学でも1980年代にニュートン的合理性で人間の知性を再現する試みは失敗し、ダーウィン的なニューラルネットが始まった(著者はそのパイオニアである)。これも最初はだめだったが、インターネットの「ビッグデータ」が使えるようになった2000年代から急成長した。

ディープラーニングは、それまでコンピュータが手も足も出なかった画像や音声のパターン認識を可能にした。こういう「機械学習」はテクノロジーとしては有望である。それが「人工知能」になる見通しは今のところないが、その可能性はゼロではない。

かつて生命という複雑な現象が単純な分子構造で表現できると思った人はいなかったが、その予想は1953年にDNAの発見でくつがえされた。もし人間の脳の機能を完全に再現できる学習アルゴリズムが発見されたら、すべての科学が計算機科学を中心に再編成されるかもしれない。

脳の機能を再現するアルゴリズムはあるか

そのヒントは経済学にある。ディープラーニングの元祖は甘利俊一氏の確率降下学習法だが、ここでは誤差の最小化という最適化問題が設定され、そのために素子(ニューロン)の重みを変えて誤差というコスト関数を最小化する。

これは経済学でもおなじみの条件つき最適化問題である。非線形なので一般的に解くことはむずかしいが、コンピュータで数値シミュレーションすれば、どういう条件ならどこにコスト最小の解があるかがわかる。これがニューラルネットでやっていることで、膨大な計算をすれば、一定の精度で最適解をみつけることができるようになった。

これはメカニズムとしては脳に似ているが、脳はコンピュータよりはるかに性能の悪い素子で、もっと精度の高い学習をするので、そこにはディープラーニングよりすぐれたアルゴリズムがあるものと思われる。脳の消費する大きなエネルギーをもっとも経済的に使うアルゴリズムは、ニュートン的な最適化ではなく、ダーウィン的な進化だろう。

そこで重要なのは微分係数ではなく、多くの可能性の探索である。これは本書でも紹介されているホップフィールド・ネットワークや遺伝的アルゴリズムで研究されており、大きなブレイクスルーが起こるかもしれない。著者はその可能性について楽観的である。脳が現実に存在する以上、答は自然界に存在するはずだ。