●あくまで比喩に過ぎないとしても、「データベース」と、「ビックデータ」とではずいぶんイメージが異なる。前者においては、全体性をもたない(文脈から切り離された)断片であるとしても、それ自体として形や像やキャラをもったもの(「萌え要素」のような断片的イメージ)が集められ、収納されているアーカイブというイメージであるが、後者においては、一つ一つのデータはそれ自体としての像や意味をもたない(表象されない)埃や塵のようなものであり、それらはどこかへ収納され、蓄積されるというより、ネットワーク上で日々大量に生み出されては流れていて、その埃や塵が、ある一定量集められ、計算、解析されることによって、はじめて一つの像や意味が現れる。つまり、計算、解析される前段階でのデータは、人間に「見える」ものではない。あるいは、目に見えている個々の塵的情報(例えばツイッタ―での取るに足らないつぶやき)は、集計され、計算、解析によってまったく異なる階層の像へと変換されて浮かび上がる。
前者を根拠としたデータ処理が、いわばコラージュによる脱文脈化→再文脈化に近いものであるとしたら、後者は、集計、計算、解析による抽象化、一般化(上位階層への変換)であると言える。はっきりした違いは、加工前のデータと加工後のイメージに連続性が認められるか、認められないかだろう。後者の個々のデータにおいては、そこから逸脱されるものとしての「全体性(正統な文脈)」をあらかじめ想定し得ないので(塵であって、断片ではないので)、「誤配」という概念は成り立たない。ビックデータ解析は、一次的な総合(あるいは「観測」)であって、再文脈化(脱領域化→再領域化)ではない。
データベース的な情報処理は、断片の再文脈化であるから、加工後のイメージはデコラティブに複雑化する傾向にあり、ビックデータ的情報処理は、無数の塵的データの統合的解析(特徴量の導出)であるので、加工後のイメージはシンプルなものになる傾向があると予想される。
とはいえ、データベースとビックデータを隔てているものは、インターネットによる「データ量の増加」とコンピュータによる「計算量(速度)の増加」であるに過ぎないとも言える。
東浩紀の著作で言えば、『動物化するポストモダン』がデータベース的、『一般意志2.0』がビックデータ的で、『存在論的、郵便的』が両者に通底する基礎的なネットワークに関する理論ということになるのではないか。
ぼくは『一般意志2.0』はとても重要なアイデアなのではないかと思う。「一般意志」というのは合議的なものでもデータベース的なものでもなくて、切り離された、身勝手な、個々の(いわば埃や塵のような)意志が、バラバラなままで集計され、解析、計算されるという過程によってしか出てこない。
一方で、可能な限りの多様性を生産する実験-実践は肯定されるべきであるが、他方で、その体系化と統合はどうしたって必要になるものだと思われる。この両者を媒介し得るものがビックデータ解析的な一般意思なのではないか(データベース的情報処理は、多様性の生産には有効でも、集団的な意思決定のようなものには使えない)。集合知である一般意思は、原理的には、多様性が増せば増すほど「正確(最適)」に近いものとなるはずである。合議でも多数決でもない「一般意志」という概念は、もし民主主義というものをこれからも信じるのだとしたら、必須のものであるように思われる。
(一般意志があればそれだけでOKということでは勿論なく、合議や折衝や多数決の他に、一般意志という別の指標が必要であろうということ。)
●勿論、その多量のデータを、誰が持っていて、誰が所有するコンピュータが解析可能で、その解析結果を誰が利用し得るのか、その者たちへの信用をどのようにして保障できるのか、という問題は常にある。