●『人工知能は人間を超えるか』(松尾豊)は特に面白い本ではなかったけど、知らなかったことをいくつか知ることができたことはよかった。最も興味深かったことはディープラーニングにおけるデータの頑健(ロバスト)性の精錬の仕方にまつわる話だった。
広く知られているように、機械学習の画像認識についての国際的なコンペディションで、トロント大学ヒルトン教授のチームが2012年に驚異的な強さで圧勝したことでディープラーニングという技術が知られるようになる。そしてこの技術が人工知能の開発に大きなブレイクスルーをもたらした。しかし、ディープラーニングに近いアイデアは八十年代くらいからあって、多くの研究者が同様の研究をしていたし、著者の松尾さんも2000年くらいから「このやりかた以外にないはずだ」という確信を得ていたという。しかし、どう考えても「このやり方しかない」はずなのに、どうしても上手くゆかなかったという。
では、同じことを考えていた多くの研究者たちとヒルトン教授のチームと何が違ったのか。その違いは、データを精錬するやり方にあった、と。正確なデータを与えるのではなく、データにノイズを加えることで頑健性を高めるというのだ。少し長くなるが、以下に引用する。
《先ほどの日本全国の天気の分析の例でいうと、ある県の天気とほかの県の天気がたまたま何日か連続で一致していることがあるかもしれない。その結果、たまたま一致しているだけで「2つの県の天気が似ている」と認識されてしまうのだ。
そこで、ノイズを加える。ある地点の天気をちょっとズラすのである。晴れはくもりに、曇りは晴れか雨に、雨はくもりに。サイコロを振って、偶数の目がでれば天気をズラす、としてもよい。その結果「ちょっと違う」天気のデータができる。この天気のデータも、もとの天気のデータと同じようなデータとして扱うのである。
もともと100日間の天気のデータがあったとして、ノイズを加えると、さらに100枚の天気のデータができる。ノイズの加え方はランダムだから、2回やると2回とも違う天気のデータができる。だから、10回、100回と繰り返してもよい。100回繰り返すと、もとの100枚の天気のデータが1万回の天気データに置き換えられる。この1万枚の天気データは言ってみれば、「ちょっと違ったかもしれない過去」である。
ある地点の天気が、実は、別の世界では晴れではなくくもりだったかもしれない。何かちょっとした影響で、ある地点で雨で運動会が中止になったのが、くもりでぎりぎり開催できたかもしれない。こうした「ちょっと違ったかもしれない過去」のデータをたくさんつくることで、データ数を無理やり増やすのだ。
そうすると、何が起こるのか。「ある地点と別の地点の天気がたまたま一致していた」ということがなくなる。ちょっと違ったかもしれない過去を含めて計算するので、「たまたま一致」ということはない。一致するなら一致するなりの理由があるはずである。
ディープラーニングでは、このように「ちょっと違ったかもしれない過去」のデータをたくさんつくり、それを使って学習することで、「絶対に間違いではない」特徴量を見つけだす。そして、「絶対に間違いではない」特徴量であるがゆえに、それの特徴量を使った高次の特徴量も見つけることができるのである。
このような「ちょっと違った過去」を使えばいいということが、私もわかっていなかったし、ほかの研究者もわかっていなかった。》
●例えば、「ちょっと違ったかもしれない過去」のデータを99通りつくって、実際の天気のデータと合わせて100通りのデータのセットとして、そのデータのセットから「特徴量」を取り出す。この時、実際にそうであった「この現実」は、他の「可能であったがそうではなかった」99通りのテータとまったく同じ重みしかもたない。つまり、「現実」は何ら特別のものではなく、百ある可能性のうちでたまたま訪れた偶発的な一つでしかない。現実は可能世界と等価である。そのような認識に立った時にはじめて「正確な特徴量」を取り出せるということになる。
このような認識は、古典物理学的な決定論とは異なる、量子論的世界観につながるように思われる。例えば、光子の二重スリットの実験で、発射された光子はスクリーンに衝突するまでの間、途中で観測されない限り、可能であるすべての経路を通っていると考えられる。だから、量子的世界を問題とする場合、可能であることのすべてを含めて計算しなければ、正確な結果は予測できない。
あるいは、複雑ネットワーク理論の研究者から社会学者となったダンカン・ワッツは「歴史からは学べない」と言う(『偶然の科学』参照)。つまり「一つしかない」現実の歴史は偶発的なものであり、「一つしかない」現実の天気と同じで、そこからは正確な「特徴量」を抽出することができない。だから、百の(というか、おそらく松尾さんは分かり易く百としていると思われ、実際には最低でも一万くらいのサンプルが必要ではないかと思う)「可能であったがそうではなかった」歴史が同時に参照、検討されてはじめて、歴史から有用な「特徴量」が得られるということだろうと思う。
(「成功体験」こそが判断を誤らせる、とはよく言われることだが、それは「成功/失敗」が多くの偶発性に依存していることを意味するのだろう。)
おそらくこのような認識は、コンピュータの計算量の異様なまでの増大があってはじめて、今日の「人類」が手にすることのできたものなのではないか。
(このような認識はもしかすると、ロールズの「無知のヴェール」という思考実験を強力に補強するものとなり、リベラリズムの非常に強い根拠となり得るかもしれない。)
●とはいえ、本当に「この現実」が、他の9999の可能世界とまったく同等であると言える根拠があるのかと言われれば、それは分からないというのが正確なところだろうと思う。実際、ディープラーニングが本当に「強いAI」の実現につながるのかどうかは、今のところまだ分からないのだから。しかし少なくとも、「そのような感覚」が、コンピュータの計算量の増大に伴って、今後広く一般化されることは確かではないか。
(我々はリアルに、イーガン「無限の暗殺者」のような世界を生きることになるのか。)