●「群像」の冒頭の座談会(「21世紀の暫定名著」一般書篇)をパラパラみていた。「21世紀の暫定名著」という企画なのに、なぜもっと「新しいもの」を知っている若い人に選んでもらわなかったのか、というのもあるけど、それより、この座談会に出席している人たちの間に、空気のように、暗黙の了解のように、うっすらと、なんとなく共有されている「否定すべきもの」があって、でもぼくには、それがなぜそんなに否定されなきゃいけないのかがわからなかった。
次の引用は大澤真幸の発言から。
《一九九〇年代には、自然科学から出てくる新潮流の持っている哲学的なインプリケーションに僕らはすごく興奮したし、摂取してみたいと思っていろいろ勉強して面白かった。ところが、二十一世紀になってからは、あまりいい科学書が出ていないんですね。どうしてそうなったかというと、一つはビックデータが出てきたからだと思うんですよ。》
ぼくは、二十一世紀になってから面白い科学書が沢山出て、(九十年代的なモードをひっくり返すような)驚くべき多くの知見をもたらしてくれていると感じているのだけど、その部分の見解の違いはともかく、なぜここでいきなり「ビックデータ」が出てくるのか、と疑問に思う。
《(…)フレーム問題は、機械や人工知能の問題から人間の方へと跳ね返って、人間にとっての認識や実践とは何かといった哲学的な問いを喚起しました。人工知能認知科学、そして哲学の領域で、フレーム問題に関連して、一九九〇年代には数多くの論文が出ました。
ところがビックデータが登場してからは、哲学的にどうとか面倒なことを考えなくてもよくなった。人間の認識活動ですごいのは必要な情報だけをはじめから絞っていくところで、決してビックデータを処理しているわけではないんですね。でも、コンピューターだったらそれができてしまう。コンピューターがビックデータでプラクティカルに処理できるようになったために、科学の持っている真の哲学的な面白さがまったくなくなってしまったという印象をもちます。》
ここでの「ビックデータ」という語の使用法にかなり違和感がある。
茂木健一郎は、ことあるごとに人工知能における確率論的アプローチを批判している(例えば最新の「現代思想人工知能特集)。生物の脳は、生体情報のオーバーフローを拘束条件として進化してきたのであり、その行動原理は、限られた資源と時間のなかでいかに生存に適した行動を行うのかという点にあり、その淘汰圧は、人工知能が手にしているものとは、メモリ的にも、時間的にも異なっている。だから現在のアプローチでは人工知能に意識は生まれないだろう、と。これは、《人間の認識活動ですごいのは必要な情報だけをはじめから絞っていくところで》という大澤真幸の発言と同様の価値観をもつ。
つまり茂木健一郎は、人間の脳は有限資源であり、コンピュータの(ムーアの法則から得られる)事実上の無限資源とは違うと指摘し、現在の人工知能(確率論的アプローチ)の成功はたんにその「無限資源」性(いわば物量作戦)に支えられているにすぎないと主張する。どうやら大澤真幸は、このコンピュータの「無限資源」性のことを「ビックデータ」と呼んでいるようなのだ。
でも、ぼくが理解している限りで、「ビックデータ」という語のコノテーションは、データさえガンガン増やしていけばプラクティカルに問題が解決されるというようなことではないのだが…。データ量と計算量の爆発的増加、およびデータマイニングの手法の進化で、今まで見えていなかった異次元的世界がみえてきた――例えば『データの見えざる手』に書かれているような――ということで、それは顕微鏡によって見えてなかったものが見えるようになったという感じに近いのではないかとぼくは解釈している。「ビックデータを使って何でもプラクティカルにやればよい」ではなく「ビックデータによって風景や地図が書き換えられてしまった」という感じではないか。「見えてしまった」ものは無視できないので、それについてどう考えるのか、ということになってくる。
それに、フレーム問題についての議論は今でもある。ただ、九十年代くらいのものとはパラダイムが変わってきていて、具体的にロボットにどう実装するのかみたいな段階になって、具体性が増すことで抽象度(汎用性)のようなものは低下したかもしれないが、でもそれが九十年代の議論に比べて哲学的に単調だとかベタだなどという事はないと思う。なにより、たんにデータ量を増やすだけで解決されるという話とは違うと思う。
次いで、池田清彦の発言。
《ビックデータの話で僕はコンピューター将棋を思い出したんだけど、あれはコンピューターが考えてるわけじゃなくて、過去のプロの棋譜のデータを入力してあるだけ。ある局面で指した手が全部入っていて、勝率の一番高い手を選んでいる。だから、コンピューターはデータ処理をしているだけなんだよね。(…)ほかにも、ただひたすらデータを入れていくことで科学が進歩している例は結構あって、そうすると、たとえばフレーム問題について哲学的な議論をしたのは一体何だという話になる。(…)そうなるとすべてがベタになって、学問がつまらなくなることは確かだよね。》
まず、「コンピューターが考えているわけじゃなくて」という時の「コンピューターが考える」という状態は、具体的にどういう状態のことを指しているのか分からないのだけど、それはともかく……。
コンピュータは「無限資源」だと言っても、実際には無限であるわけではない。将棋ソフトの場合は、計算量には限りがあるし、ビッグデータというようなものは使われない。例えば電王戦の末期ではパソコン一台しか使えないという制約があった。そのなかで特に強くなったソフトでは、打つべき手の可能性を効率的に刈り込んでゆき(これはフレーム問題の解の具体的な一例といえる)、そのかわりにより深く先の手まで読むことができるようにして強くなった(「サイエンス・ゼロ」情報)。だから、「棋譜データを入力してあるだけ」というのは、かなりぼやっとした指摘ではないかと思う。将棋の場合、打ち得る手の数は膨大にあるので、そのすべての可能性を検索することは最高のスーパーコンピュータでも不可能であるということが、この発言では忘れられている。
コンピュータなのだから「データを処理しているだけ」なのは当然で、「どのように」処理しているのか(どのような処理によって強くなるのか)が重要となる。過去の膨大なデータがあるだけでは駄目で、それをどう使うのかが問題だ。それに、将棋ソフトは、人間の棋士では思いつかないような「新しい戦法」を創造していると聞く(これも「サイエンス・ゼロ」情報)。過去のデータから、未だこの世界に現れていない可能性を導き出すことは「創造」と呼んでもいいのではないか。
これらの問題が「哲学的な問いを喚起しなくなった」(大澤真幸)という認識も違うとぼくは思う。それどころか、人工知能の可能性/不可能性が、我々に覆いかぶさるようにして「哲学を強いてくる」(しかし今までとは別の仕方で)感じではないかとぼくは思っているのだけど。
さらに大澤真幸の発言。
《(…)それと、知の使命は不確実性に対してどう向き合うかということでしょうね。ビックデータを使うと、九九・九%には対応できるわけです。ところが、原発事故やリーマンショックのように、〇・一%は予想外のことが起きる。》
この発言の「意味するところ」がぼくにはよくわからない。
なぜ、ビックデータを批判する事例として原発事故やリーマンショックが挙げられるのか、この因果的、あるいは論理的繋がりが分からない。この発言の後、他の出席者たちから、原発批判や東電批判が、さも「ビックデータ」が悪いかのような「空気」で――正確には、不確実性の隠蔽が「悪」であり、ビックデータがそれを肯定するという感じだが――つづくのだけど、原発事故や東電の責任と「ビッグデータ」との間には、すくなくとも直接的な関係はないと思う。
あるいは、〇.一パーセントの確率で間違うことが最初から分かっていれば、その間違いは「想定内」ではないのか、とか。あるいは、むしろ人間にとって「予想外」の事態(人間による想定を超えた事態)に陥った時にこそ「ビックデータ」が威力を発揮する可能性があるのではないか、とか。
ここでも「ビッグデータ」という語が具体的に何を意味しているのかよく分からないのだが、仮にこの「ビッグデータ」と呼ばれる何かが九十九.九パーセントの確率で未来を予測できるのだとしたら、完璧ではないとしても、それだけでかなりすごいことではないか。その「すごいこと」に驚くのではなく、何故それが頭ごなしに否定されなければならないのかがまず分からない。
(実際にビックデータを用いた天気予報でも、そんなに高い確率では当たらない。)
次に、たとえば、「このわたし」が、千人に一人の割合でかかる不治の病気をもって生まれてくる、ということがあり得る。〇.一パーセントの「不確実性」というものを具体的にイメージしようとすると、このような状態として考えることが出来ると思う。統計的に考えれば千人に一人の割合だという形で充分に予測可能(想定内)だが、それが「このわたし」であることは確率的には扱えない(想定外である)。「知の使命は不確実性に対してどう向き合うかということ」という意味は、千分の一が「このわたし」であったという事実についてどう向き合うかということだと言い換え得る。こう言い換えれば、この不可解な発言がある程度は理解可能になる。
あるいは、時間対称的な物理学では、次々に新たなものが生まれてくるベルクソン的な「時間」が思考できない、という風に書き換えることもできるかもしれない。
しかし、このような思考と「ビックデータ」とは、本当に排他的であるのだろうか。ここで言われている「ビックデータ的なもの」の描像が曖昧ではっきりしないので、これ以上は思考を進められないが、「不確実性に対してどう向き合うか」という思考と「ビックデータ」とは排他的ではないようにぼくには思われるのだが。排他的ではないというか、「ビックデータ」は、「不確実性に対してどう向き合うか」という思考の敵ではないと思うのだが。
●ぼくの書いていることもたんなる「ニワカの受け売り」だから間違っているかもしれないのだけど、ここで言いたいことは、何故そんなに「ビッグデータ」が敵視されなければいけないのかが分からない、という事に尽きる。しかもそれがかなり「ぼんやりした描像」のまま、ほぼすべての発言者に「空気」として共有されている(一人くらい、「いや、ビックデータ面白いですよ」と言う人がいてもいいと思うのだけど)。なぜ、まだよく分からないものに予め「敵設定」で対応してしまうのだろうか、と。仮に「敵」だとしたら、その敵の「描像」をもっとかっきり正確にしようとする必要があると思う。