磯崎さんのブログからTBが来て、グーグルには狭義の広告産業を超える可能性があるのではないかと書いてある。これは「朝生」で私も主張したことで、特定の客向けの「営業」と不特定多数向けの「広告」という分類を壊す可能性もあるだろう。そうすれば、客にとって必要もない情報を見なくてすむばかりでなく、広告主にとっても高い料金を払って大部分は買う気のない客に向けてメッセージを発する必要もなくなるわけで、うまく行けば狭義の広告をしのぐメディアになるかもしれない。

テレビ・コマーシャルというのは、20世紀の大量生産・大量消費社会を象徴するアイコンだった。そこでは規格品を大量生産することが目標とされ、広告もマスを相手にした無差別な大量宣伝だった。しかし社会が成熟するにつれて、規格品(ベキ分布のheadの部分)の市場は飽和し、人々は「自分のための商品」や「自分についての情報」などtailの部分を求めるようになる。ウェブやEメールは、こうした「個」の時代にあったメディアだったが、ブログや検索エンジンは、こうした個別化の傾向をさらに強めるものである。

いまウェブに本質的な変化が起こっているとすれば、磯崎さんもいうように、ブログやRSSによって、こうした個別化された情報がその送り手から受け手へ直接送られるようになったということだろう。これは、W3CがHTMLからXMLに移行する作業を始めたとき、Tim Berners-Leeが提唱した"semantic web"の実現でもある。ただ世界のウェブサイトのほとんどはまだHTMLで書かれているので、Timの考えた「機械が互いに意味を伝え、解釈する」世界が実現するのはまだ先だろうが、その走りは見えてきた。

もしも世界中のウェブサイトがすべてXMLで書かれれば、グーグルのように盲目的に全文検索してインデックスする巨大な検索エンジン(情報量は多いがS/N比が低い)は過去のものとなり、たとえば「モーツァルトの交響曲のうち短調で書かれた曲は何番か?」というふうに入力すると、XMLのメタデータで分類されたデータベースから検索エンジンが「意味」を読み取ってその曲名を表示することも可能になるだろう。

これは、20年ほど前に「人工知能」がめざした目標と似ている。当時は、すべての意味解釈をマシンにさせようとしたため、その自然言語処理エンジンと知識ベースが怪物的に大きくなってしまったが、今度はデータのなかに機械が解釈できる意味を埋め込むわけだ。こういう意味データが十分蓄積されれば、楽天や価格.comのようなサイトは「中抜き」され、必要な情報がユーザーに直接フィードされるようになるかもしれない。本質的な意味でWeb2.0と呼びうるのは、ウェブ全体がXMLで書かれるようになったときだろう。