第5世代コンピュータ

渕一博氏が死去した。彼は、1980年代の国策プロジェクト「第5世代コンピュータ」を進める新世代コンピュータ技術開発機構(ICOT)の研究所長だった。私もICOTは何回か取材したが、発足(1982)のころは全世界の注目を浴び、始まる前から日米で本が出て、欧米でも似たような人工知能(AI)を開発する国策プロジェクトが発足した。ところが、中間発表(1984)のころは「期待はずれ」という印象が強く、最終発表(1992)のころはニュースにもならなかった。

1970年代に、通産省(当時)主導で行われた「超LSI技術研究組合」が成功を収め、日本の半導体産業は世界のトップに躍り出た。その次のテーマになったのが、コンピュータだった。当時はIBMのメインフレームの全盛期で、その次世代のコンピュータは、AIやスーパーコンピュータだと考えられていた。通産省の委員会では、国産のAI開発をめざす方針が決まり、第5世代コンピュータと名づけられた。これは、次世代の主流と考えられていた「第4世代言語」(結局そうならなかったが)の先の未来のコンピュータをめざすという意味だった。

ICOTには、当初10年で1000億円の国家予算がつき、国産メーカー各社からエースが出向した。その当初の目標は、自然言語処理だった。プログラミング言語ではなく日本語で命じると動くコンピュータを目的にし、推論エンジンと知識ベースの構築が行われた。システムは、Prologという論理型言語を使ってゼロから構築され、OSまでPrologで書かれた。これは、Prologの基礎になっている述語論理が、生成文法などの構文規則を実装する上で有利だと考えられたからである。

エンジニアたちは、当初は既存の言語理論をソフトウェアに実装すればよいと楽観的に考えていたが、実際には実用に耐える自然言語モデルがなかったので、言語学の勉強からやり直さなければならなかった。彼らは、文法はチョムスキー理論のような機械的なアルゴリズムに帰着するので、それと語彙についての知識ベースを組み合わせればよいと考えていたが、やってみると文法解析(パーザ)だけでも例外処理が膨大になり、行き詰まってしまった

結局、自然言語処理は途中で放棄され、「並列推論マシン」(PIM)というハードウェアを開発することが後期の目標になった。しかし肝心の推論エンジンができておらず、その目的である自然言語処理が放棄された状態で、並列化して処理速度だけを上げるマシンに実用的な用途はなく、三菱電機が商品化したが、まったく売れなかった。予算も使い切れず、最終的には570億円に減額された。その成果は、アーカイブとして残されている。

ICOTは、1980年代初頭というコンピュータ産業の分岐点で、メインフレームを高度化する方向に国内メーカーをミスリードし、IBM-PCに始まるダウンサイジングへの対応を10年以上遅らせた点で、大きな弊害をもたらした。また産業政策としても、史上最大の浪費プロジェクトだったといえよう。これほど高価な授業料を払ったにもかかわらず、最近の「日の丸検索エンジン」の動きをみていると、その失敗の教訓は生かされていない。

しかし学問的には、ICOTの失敗によって、人間の知能に対する機械的なアプローチが袋小路であるということが実証された点には大きな意義があった。自然言語の本質はプログラミング言語のような演繹的な情報処理ではなく、脳はノイマン型コンピュータではないことが(否定的に)明らかになったからである。ではそれが何なのかは、いまだに明らかではないが・・・

追記:ICOTの当初の方針も、「非ノイマン型」の並列処理を行うことだったが、実際にできたPIMは、複数のCPUを並列につないだ「拡張ノイマン型」だった。その後、AIの主流はニューロコンピュータのような超並列型に移ったが、汎用的な成果は出なかった。

追記2:訃報の記事としてはあんまりだというコメントもあったので、個人的な思い出をひとつ:渕さんは哲学者的な感じの人で、第5世代の産業的な成功は信じていなかったように思う。ICOTの「孤立主義」を批判し、世界のAIの主流だったLispを採用すべきだという意見もあったが、彼は「成功しても失敗しても、仮説は単純なほうがいい」として、折衷的なアプローチを拒否した。

自壊する帝国

自壊する帝国

佐藤優

このアイテムの詳細を見る

ゴルバチョフの登場からソ連の崩壊後までの7年あまり、モスクワに駐在した著者が、ソ連という「帝国」の崩壊する過程を同時代的に体験した記録。政治家だけではなく、反政府活動家や宗教家などとの交流から、ロシア人の内面に入り込み、80年代までにソビエトという帝国が精神的に空洞化し、内部から崩壊していたことを明らかにする。

モスクワ大学の「科学的無神論学科」では、宗教を批判するという名目でキリスト教が研究されていた。宗教が公式に禁止されてから70年以上たっても、ロシア人の心のよりどころはキリスト教だったのである。マルクス主義は結局、そういう求心力を持ちえなかった。レーニンが「弁証法的唯物論」と称してでっち上げた素朴実在論が党の教義となり、精神の問題を完全に無視したからだ。ちなみに、弁証法的唯物論なる言葉は、マルクスの著作には一度も出てこない。

他方、チェチェンにみられるようなナショナリズムは、今なお強い求心力をもち、ロシア連邦の同一性を脅かしている。第2次大戦でドイツを撃退した力の源泉も、イデオロギーではなく、「国土を守れ」というナショナリズムだった。キリスト教も国民国家も人為的につくられた幻想にすぎないが、豊かなシンボリズムをそなえた幻想は、社会主義の貧しい現実よりも現実的だったのである。

ただし、本書は著者の個人的な交友関係を中心とした「ミクロ的」な叙述に終始し、全体状況がよくわからない。あとがきでは、全体の話は宮崎学氏との対談『国家の崩壊』(にんげん出版)を読めと書いてあるが、この本はゴルバチョフと小泉首相を同列に扱う宮崎氏の床屋政談で台なしになっており、おすすめできない。

シリコンバレー精神

シリコンバレー精神 -グーグルを生むビジネス風土

梅田望夫

このアイテムの詳細を見る

文庫になるのは、古典とはいわないまでも、年月がたっても「腐らない」本が普通で、IT業界の本が文庫になるのは異例である。『ウェブ進化論』が大ヒットしたおかげだろう。本書の主要部分は、1996年から2001年までに書かれたエッセイだが、最後に現在の状況について書いた「文庫のための長いあとがき」がついている。先にあとがきを読み、そこに参照されている本文にリンクするように読めと書いてあるが、これは読みにくい。

本文にも1ヶ所だけ、グーグルが出てくる。「すばらしい検索技術をもっているが、どうやって資金を調達すればいいかわからないベンチャー」という2001年の状況だ。この年は、ドットコム・バブル崩壊の翌年で、シリコンバレーから資金が急速に引き上げられていた。検索も金にならないということで、多くの検索サイトは自社開発をやめ、グーグルのエンジンを使い始めた。こういう状況で、グーグルは逆に自社技術の開発に投資したのである。

結果としてグーグルが生き残ったのは、彼らが未来を的確に予測していたからではなく、著者のいうように「1社だけ人とは違うことをしていた」からである。環境がどう変化するかわからないときには、人と違うことをする「おかしな会社」が多いほど、企業システム全体も生き残る確率(オプション価値)が高くなる。これは「シリコンバレー精神」というよりは「風土」みたいなもので、他の国でまねるのはなかなかむずかしい。

もう一つは、ファイナンス構造が、日本のベンチャー(というか中小企業)のように「私財を投げうって」創業し、失敗したら莫大な借金を背負って人生は終わり、という「超ハイリスク型」とは違うことである。VCの「失敗しても返さなくてもいい金」を借りて冒険でき、こけても創業者の負うリスクは限定されているので「再チャレンジ」できる。

週刊東洋経済の読書特集で、いろいろなIT本を読んでみてわかったが、その大部分はマニュアルやハウツー本で、書物として読むに耐えるものはほとんどない。『ウェブ進化論』は、2006年現在のインターネットの全体像を日本語でのべている唯一の本といってもよい。本書のあとがきは、その付録として読むこともできるが、本文はさすがに古くなっている。

ロングテールの虚妄?

WSJに"The Long Tail"批判記事が出ている。筆者のLee Gomesによれば、「オンライン音楽サイトの曲の98%は四半期に1度は演奏(ストリーム)される」というChris Andersonの「98%ルール」は、実証データによって反証されるという。たとえば、
  • Andersonがこの「法則」の根拠としたEcastの最新のデータでは、四半期に1度も演奏されない曲が12%に増えている
  • Rhapsodyでも、まったく演奏されない曲が22%にのぼる
  • Ecastでは、10%の曲がストリームのの90%を占める
  • Bloglinesでも、トップ10%の記事のRSSフィードが登録数の88%を占め、35%の記事にはまったく読者がいない
といったものだ。これは十分ありうることだが、Andersonの論旨をくつがえすものではない。彼の本質的な発見は、ウェブ上の情報の分布がベキ分布になっているということであり、テールがどの程度長いかということではないからである。

むしろ彼の議論の欠点は、実証データを系統的に検証していないため、それがどこまでベキ分布に近いかが、はっきりしていないことだ。もし完全なベキ分布になっていれば、彼が強調しているように、テールが長くなると同時にヘッドが低くなって「ブロックバスター」が減るという現象は考えにくい。ベキ分布は、45度線について対称なので、テールが長くなると、ヘッドも高くなるはずである(現実にそうなっている)。

もう一つのAndersonの議論の問題点は、分布のベキ係数(対数グラフでみたときの傾き)の変化と、分布の右端の切れていたテールの出現が混同されていることである。アマゾンでテールの比重が高くなるのは、かつては倉庫スペースなどの制約で市場に出てこなかった商品が売れるようになったことによるもので、分布関数の変化ではない。ちょうど潮が引いて氷山が水面上に姿を現すように、ITによって取引費用が下がったことで、テールの部分の市場が見えてきたわけだが、このように氷山の全体像が見えたことは重要である。

これまでのようにベキ分布のテールの部分が大きく切れていると、正規分布で近似できる。市場データも、1日単位の粗いデータで見ると、ランダムウォークで近似できる。それをこれまでの経済学者は、経済現象の本質と取り違え、ほとんどの統計データを正規分布で近似してきた。正規分布で平均値をとれば、集計的には決定論的なデータと変わらないからである。しかしベキ分布では、平均や分散という概念は意味をもたない

いずれにしても、この種の問題は、まずいろいろなデータを集めて解析してみないと、実態がわからない。Andersonの本は、少ないサンプルを繰り返し使っていろいろ憶測しているが、経済学者がもっと系統的に調べる必要があるだろう。そういう研究会を立ち上げようかと思っているので、データ解析やネットワーク理論に興味と知識のある方は、連絡をください。

追記:Odlyzko et al.が、ロングテールを「ネットワークの価値」という観点から論じている。

追記2:"The Long Tail"の訳本が9/25に早川書房から出るそうだ。

何のための「海外向け情報発信」か

情報通信審議会が「新しい外国人向け国際放送」のあり方を検討するそうだ。これは6月の政府・自民党合意で、NHKの子会社と民放で国際放送を行うと明記されたのを受けたもので、情通審では今後、放送内容や財源などを検討するそうだが、根本的な問題が抜けている。それは何のために「情報発信」するのかということだ。

現在のNHKの国際放送(ラジオ短波放送と在外邦人向け衛星テレビ放送)は、情報発信のためのものではない。したがって、まったく新たに海外向けの外国語放送を行う会社をつくるものと考えるしかないが、その位置づけが不明だ。国際放送は欧米各国にあり、たとえばVoice of Americaは米国政府による宣伝放送である。これは北京放送やピョンヤン放送と同じ、軍事・外交的な情報操作の一環であり、政府支出によって行うのが普通である。

ところがNHKの国際放送は、目的が曖昧なまま、国内の視聴者から集めた受信料で運営されてきた。今度の新会社がVOAのようなものだとすれば、こういう宣伝放送をNHKや民放が行うのは、ジャーナリズムとして自殺行為である。予算は100%政府支出でまかない、放送局は政府から広告料をとって番組を供給する立場に徹すべきだ。

さらに問題なのは、どういう情報を発信するのかということだ。NHKの番組でさえ欧米では商品にならないし、民放の番組に至っては、英語に吹き替えて海外に流すのは、ほとんど日本の恥をさらすようなものだ。規制と日本語の壁に守られ、低レベルの番組を高コストで作り続けてきた日本の放送業界は、きわめてドメスティックであり、海外に発信できるような情報がそもそもないのである。

こういうとき「ソフトパワー」という言葉がよく使われるが、ハリウッドの映画がソフトパワーを持っているのは、それが競争の中で観客に選ばれたからだ。したがって世界に通用する番組をつくるには、NHKを民営化し、浪費されている電波を再編して、放送業界に競争を導入する必要がある。ところが政府は逆に、NHK国営化の方向に舵を切ってしまった。多様で質の高い情報が国内でも流通するようにならなければ、海外からも相手にされないし、逆にいいものができれば、政府が支援しなくても、おのずからグローバルに売れる。結局、日本文化の質を高める以外に、世界から尊敬される近道はないのである。

グーグルか著作権か

CNETのDeclan McCullaghの記事によれば、グーグルは何件もの訴訟を抱えているようだが、そのうちもっとも重要なのはキャッシュをめぐるものだ。これまでにも、キャッシュの削除と損害賠償を求める著作権者からの訴訟は何件も起こされ、グーグル側が敗訴(あるいは和解)している。この種の訴訟に対するグーグルの反論の根拠は「フェアユース」しかないようだが、これは弱い。グーグルは、ISPのように著作権法の「セーフハーバー」で保護されていないからである。インターネット上のサービス業者のうち、ISPだけはセーフハーバーによって免責されているが、他の業者は賠償責任を負うのである。

しかしISPのセーフハーバーも、最初からあったわけではない。アメリカでも、ウェブが普及し始めた1990年代後半には、著作権法違反のコンテンツをホームページに掲示させたとしてISPが訴えられる事件が頻発した。最初はISPが敗訴するケースが多かったが、1996年のネットコム事件のように、ISPがあらかじめ違法行為を知らない限り責任は負わないという判決も増えた。ホームページの数が数億になると、それをすべてISPに事前チェックさせるのは非現実的だという判断が支配的になった。

アメリカはコモンローの国だから、法律が常識に合わない場合には、常識にあわせて法律を柔軟に解釈する判決が出て、そういう判例の積み重ねによって実質的な法改正が行われ、これを立法府が追認するという形で法律が改正されることが多い。著作権法の場合も、こうした判例をもとにして、1998年にDMCAで、OSP(online service provider)は「違法の事実を知らされたら削除する」という事後処置の義務だけを負うセーフハーバーが設けられたのである。

今後、ナプスター事件のようなサービス差し止め訴訟がグーグルで起きたら、同様にグーグルがOSPかどうかが争点になろう。ナプスターの場合には、P2Pサイトは接続を提供していないのでOSPではないという判例ができ、あとの裁判もこれを踏襲した。グーグルのキャッシュも、第三者に接続を提供しているのではなく、自分で複製しているのだから、この基準に従うと、グーグルが敗訴する可能性が高い(同様にAkamaiなどのCDNも危ない)。

だがナプスターと違うのは、グーグルは今や世界のインターネット・ユーザーのほぼ半数が使っているインフラだということである。ここでグーグルのサービスをアメリカの裁判所が差し止めたら、全世界から抗議が殺到するだろう。それに配慮して常識的に判断すると、何らかの救済措置をとる判決が出る可能性もある。こうした判例が積み重ねられれば、最終的にはDMCAの改正に至るかもしれない。

すべてのデジタル情報の違法性を原則として事前にチェックすることをサービス業者に義務づけ、例外としてISPだけを免責する現在の著作権法(世界的に)は、インターネットの現実にあわない。逆に、すべてのサービス業者を原則として免責し、意図的に違法なコンテンツを掲示した場合に限って賠償責任を負わせるべきである。こうした問題点を明確にして法改正を実現するには、むしろグーグルがいったん敗訴して、キャッシュの提供を差し止める命令が出され、「グーグルか著作権か」という状況になったほうがわかりやすい。

日本の場合には「送信可能化権」という奇妙な権利をつくったため、問題が複雑になっているが、司法的にも立法的にも、ほぼ3年ぐらい遅れてアメリカのあとを追っているので、アメリカだけ見ていれば足りるだろう。

差異性の経済学

東洋経済の読書特集で一番おもしろかったのは、『国家の罠』の著者、佐藤優氏の「獄中読書記」である。拘置所では集中力が高まり、512日間で220冊読んだそうだが、彼がグローバル資本主義を理解する上でもっとも役に立ったのが、宇野弘蔵だったという。

私の学生時代、東大の経済学部には「原論」がAとBの二つあって、Aがマル経、すなわち宇野経済学だった。宇野の特徴は、マルクス経済学を「科学的に純化」し、イデオロギー性を抜きにして『資本論』の論理を洗練しようというものである。これは、世界的にみても珍しいマルクス主義の進化だった。もちろん「党」からの批判も強く、党の方針に従う人々は京大を中心にして「マルクス主義経済学」を名乗ったが、学問的な水準は宇野に遠く及ばなかった。

宇野の理論でグローバル資本主義を説明できる、という佐藤氏の直感は正しい。その論理構造は、ウォーラーステインの「近代世界システム」とよく似ている(というか宇野のほうが先)。要するに、資本主義は差異によって利潤を生み出すシステムだという考え方である。その限界が、宇野によれば恐慌なのだが、弟子の鈴木鴻一郎(*)や岩田弘などの「世界資本主義」派は、差異化のメカニズムを世界市場に拡大し、植民地との間にグローバルな差異をつくり出すことによって資本主義を延命したのが帝国主義だとする。こういう議論は岩井克人氏や柄谷行人氏の話でもおなじみだが、これはもちろん彼らが宇野をパクっているのである。

宇野のマルクス解釈は、「ポストモダン」を先取りしてもいた。デリダは『マルクスの亡霊』で、マルクスが価値の実体は「幽霊的」なものだとして古典派経済学の形而上学を批判したことを高く評価したが、結局は労働価値説に価値実体を求めたことを批判した。これに対して宇野理論は、「流通過程が生産過程を包摂する」という論理で、事実上、労働価値説を放棄しているので、近経とも接合しやすい。

均衡=同一性を原理とする新古典派経済学では、利潤が継続的に存在する事実を説明できない。それに対して、差異性を原理とする宇野の理論は、現実の市場を定性的にはよく説明しており、経済物理学や行動ファイナンスのように、均衡の概念を否定する最近の理論にむしろ近い。宇野のスコラ的な文体では使い物にならないが、これをうまくリニューアルして現代の経済学と接合すれば、新しい経済システム論を生み出す可能性もある。

ただ佐藤氏も指摘するように、宇野の限界は、こうした差異化のシステムの基礎に国家権力があるという側面を軽視したことだ。マルクスも最終的には、資本論→世界市場論→国家論という巨大な「三部作」構成を考えていたが、この場合の国家は、あくまでも「上部構造」として経済的な土台から説明されるものだった。これは「市民社会の矛盾を国家が止揚する」というヘーゲル法哲学の思想で、今なお社会科学の主流である。

現代の問題は逆に、貨幣とか財産権などの制度の背後に政治があるということだ。こうした制度が自明に見えているときには、グローバル資本主義は安定した秩序として維持できるが、通貨危機が起こってIMFが介入したり、「知的財産権」を侵害するデジタル情報がグローバルに公然と流通したりするようになると、その自明性は失われ、背後にある政治性(ワシントン・コンセンサスやハリウッドの文化帝国主義)が露出してくるのである。

(*)宇野と鈴木の名前を合成したペンネームが「宇能鴻一郎」だったというのは、嘘のようなほんとの話。

夏休みの読書リスト

きょう発売の週刊東洋経済の読書特集で、「Web2.0とインターネットの未来」というテーマで(無理やり)10冊選んだ:並べ方は本文で言及した順であり、すべての本を強くおすすめするわけでもない。内容についてのコメントは、週刊東洋経済を読んでください。

ウェブの先史時代

Web2.0の便乗本が、たくさん出ている。たとえば神田敏晶『Web2.0でビジネスが変わる』(ソフトバンク新書)は、「Web2.0とはCGM(消費者生成メディア)のことである」と単純明快に断じ、CGMの例ばかりあげているお手軽な本だが、これは間違いである。CGMは、いま初めて出てきたものではない。昔のGopherにしてもネットニュースにしても、インターネット上のサービスは、もとはすべて消費者の作ったものだったのである。こういうウェブの「先史時代」を知ることは、今後の進化を予測する上でも重要だ。

モザイクでウェブがデビューしたとき、それが他のサービスと違っていたのは、むしろそれまでに比べてマスメディアに近づいたことだった。当時ネットニュースは、今の2ちゃんねるのような無政府状態だった。それに対して、ブラウザは文字どおりbrowseするだけで書き込めないから、双方向性はないが、無政府状態になる心配はなかった。ウェブの特徴は、こうして情報の生産者と消費者を区別して、秩序を維持できることだったのである。

さらにウェブ上でビジネスが始まると、ウェブサイトの作者はプロフェッショナルになり、データ量も膨大になり、デザインも凝ったものになった。ハードウェアも、初期のインターネットはすべてのホスト(主としてDECのミニコン)が同格につながるE2Eの構造だったのに対して、ウェブではクライアント=サーバ型の構造がブラウザとウェブサイトの間に成立した。特にほとんどのユーザーがISPを使うようになると、固定IPアドレスも持たなくなり、ユーザーとサービス提供者との非対称性はきわめて大きくなった。

この傾向が逆転し始めたようにみえたのは、ブログだろう。しかし、これも初期のMovable Typeでは、自分でレイアウトしなければならなかったが、そのうちにほとんどは、当ブログのようにISPにホスティングされるものになった。自分でホームページを作っていたころに比べると、ユーザーの自立性は弱まっている。ブログの数が全世界で4000万近いといっても、10億人を超えたインターネット・ユーザーの4%にすぎない。Wikipediaも、ユーザーの1%以下の「プロ」が半分以上の項目を編集している。

だからWeb2.0になってユーザーの力が強まったとか、「総表現社会」が来たとかいうのは錯覚である。アクティブなユーザーの数が増えるのは、母集団が増えているのだから、当たり前だ。インターネットが成長するにつれて、比率としては大部分のユーザーは受動的になり、マスメディアに近づいているのである(*)。極端なのはグーグルだ。その構造は、巨大なコンピュータに世界中の端末がぶら下がるIBMのメインフレームとほとんど同じである。

TCP/IPには、この20年以上、本質的な技術革新がなく、これは今後も(見通せる未来にわたって)変わらないだろう。しかしウェブ(HTTP)は、その上のサービスの一つにすぎず、インターネットの進化がウェブのバージョンアップにとどまるはずはない。今後リッチ・コンテンツが増えると、負荷を分散するため、リンクとファイル転送を切り離すP2P型が増えるのではないか。検索もP2Pで行い、インターネット全体を超並列コンピュータとして使うようなアプリケーションが出てくるかもしれない。そしてP2Pの原理は、E2Eに他ならない。インターネットは、変わっているようで変わっていないのである。

(*)誤解のないように付け加えると、私はウェブがマスメディアになるといっているのではない。初期のユーザーは、いわば「ヘッド」だけだったが、ウェブが普及するにしたがって「ロングテール」の部分が伸びているのである。ドットコム・ブームのころにもprosumerという言葉が流行したが、現実にはヘッドとテールは質的にはっきりわかれている。

社会的オプションとしてのベンチャー・キャピタル

先月のICPFシンポジウムでも話したことだが、1990年代前半、だれもが次世代のメディアは光ファイバーによる「マルチメディア」だと信じ、フロリダでタイム=ワーナーが大規模なビデオ・オンデマンドの実験を行った。同じころ、イリノイ大学のウェブサイトで「NCSAモザイク」が公開された。歴史を変えたのはタイム=ワーナーではなく、モザイク(のちのネットスケープ)だった。

こういうとき大事なのは、どっちが成功するかということではなく、どっちのオプションも排除しないということだ。1994年、シリコンバレーの名門ベンチャー・キャピタル、クライナー=パーキンスがネットスケープに400万ドル投資したとき、その売り上げは無に等しかった。そして今、「死が近い」ともいわれるYouTubeに、同じく名門VC、セコイアが1100万ドル以上投資する事実は、アメリカという国のオプションの広さを示している。

多様なオプションをもつことでリスクをヘッジする手法は、金融商品ではよく知られているが、これを実物資産に応用したのが「リアル・オプション」である。大プロジェクトに10億円投資して失敗したらゼロになってしまうが、それをモジュール化した2億円のプロジェクトを5つ作り、そのうち失敗したものは撤退するリアル・オプションがあれば、ゼロになることは避けられる。これが拙著で論じた「制度の柔軟性」の概念である。

今後の新しいメディアの本命は「通信と放送の融合」ではなく、YouTubeのような「ブロードバンド2.0」かもしれないし、そうではないかもしれない。何が本命かは、誰にもわからない。こういうときは、いろいろなものに実験的に投資して、そのうち一つでも成功すればよい、と割り切るしかない。VCは、いわばこうした社会的オプションとしての機能を果たしているのである。

ところが、日本にはこういう「裏」のオプションがないので、単独で事業を立ち上げるリスクを減らすために、テレビ局とメーカーが談合して「サーバー型放送」をつくるとか、官民一体で「日の丸検索エンジン」をつくるという話になりがちだ。しかし実は上に述べたように、このようにみんなで一緒にやることは、オプションを狭め、リスクを高めてしまうのである。これが国策プロジェクトの失敗する原因だ。

資金調達のオプションが少ないことも問題だ。政府と銀行が一体になった「開発主義」的な金融システムがいまだに残っているため、銀行や大企業に認知されていない(怪しげな)プロジェクトに投資することが非常にむずかしいのである。これは「直接金融か間接金融か」という問題ではない。VCの投資先との関係は、実は日本の銀行と融資先の関係に似ている。問題は、日本ではリスクをプールするしくみが銀行しかないため、大口の投資家が大きなリスクをとって投資する手段がほとんどないことだ。

いま日本に必要なのは、ファイナンス業界の淘汰と新規参入によって、こうしたオプションを広げることだ。90年代の不良債権処理で、不良企業の多くは淘汰されたが、肝心の不良金融機関は、公的資金によって延命されてしまった。ライブドアや村上ファンドの事件で、株主資本主義を否定する風潮が強まっているが、否定しなければならないような株主資本主義は、まだ日本にはほとんど育っていないのである。






title




連絡先(取材・講演など)

記事検索
月別アーカイブ
QRコード
QRコード
Creative Commons