従来の経済学は稀少な資源の効率的な配分を考える学問だが、ムーアの法則によって計算・記憶能力が事実上「自由財」になったので、こうした過剰な資源をどう利用するかを考える経済学が必要である。これは、もとはジョージ・ギルダーが『テレコズム』でのべたことである。
この預言を信じて、ノーテルやルーセントは光ファイバーに巨額の投資を行い、JDSユニフェーズの株価は天文学的な額になったが、テレコズムの楽園は実現しなかった。「最後の1マイル」という稀少性が解決しなかったからである。だから残念ながら、いまだに経済学は正しいのだ。すべての資源が自由財になることがありえない以上、ある資源が過剰になれば、必ず別の資源が相対的に稀少なボトルネックになるから、重要なのは過剰な資源ではなくボトルネックなのである。
ムーアの法則でコンピュータの情報処理能力が自由財に近づいているというのは正しいが、問題はそれによって何がボトルネックになるかである。ハーバート・サイモン(1971)の有名な言葉を引用すると、
資本主義の前提は、資本が稀少で労働は過剰だということだ。工場を建てて多くの労働者を集める資金をもっているのは限られた資本家だから、資本の稀少性の価格として利潤が生まれる。これは普通の製造業では今も正しいが、情報の生産については状況は劇的に変わった。ムーアの法則によって、1960年代から今日までに計算能力の価格は1億分の1になったからである。
これは建設に100億円かかった工場が100円で建てられるようになるということだから、こうなると工場に労働者を集めるよりも、労働者が各自で「工場」を持って生産する方式が効率的になる。それが現実に起こったことである。メインフレーム時代には、稀少な計算機資源を割り当てるため、ユーザーはバッチカードを持ってコンピュータの利用時間を待ったが、PCの登場によってボトルネックはユーザーになった。ここでは逆に、ユーザーの稀少な時間を効率的に配分するため、コンピュータは各人に所有され、その大部分は遊んでいる。
つまり情報生産においては、資本主義の法則が逆転し、個人の関心(時間コスト)を効率的に配分するテクノロジーがもっとも重要になったのである。だからユーザーが情報を検索する時間を節約するグーグルが、その中心に位置することは偶然ではない。資本主義社会では、稀少な物的資源を利用する権利(財産権)に価格がつくが、情報社会では膨大な情報の中から特定の情報に稀少な関心を引きつける権利(ネット広告)に価格がつく。
20世紀の大衆消費社会では、こういう関心の配分は大して重要な問題ではなかった。規格化された商品を大量生産・大量消費するには、マスメディアで一律の情報を一方的に流せばよかったからだ。しかしロングテール現象が示すように、人々の真の選好は想像されていた以上に多様で変わりやすく、そこから利益を得る技術はまだほとんど開発されていない。マーケティングというのは、ハイテクとは無縁のドブ板営業だと思われてきたが、これを合理化することが今後のITのフロンティアの一つになろう。
このように特定の目的のための固有技術をコンピュータのような汎用技術が駆逐する現象は、今に始まったことではない。かつて蒸気機関、鉄道、自動車、電力などは、伝統的な技術に代わって多くの用途に使われる基盤技術となった。しかし、それは応用技術の効率を上げることで生産性を高める技術(enabling technology)なので、産業構造が汎用技術に対応しないと経済成長率は上がらない。最初に発電所ができたのは1870年代だが、電力エネルギーが蒸気機関を上回ったのは1920年代だった。生産性が上がったのは、電力とモーターを使った「オートメーション」が普及してからだ。
デジタル革命の場合も、最初のMPUができた1970年から30年以上たっても、その効果は十分発揮されていない。産業構造がまだ製造業型のままだからである。コンピュータの最大の特徴は、従来は分野ごとに異なる機械で行われていた情報処理をソフトウェアに置き換え、汎用のハードウェアで実行することである。映像処理も事務処理も同じハードウェアでできるので、用途ごとの境界はなくなり、その代わりハードウェアとソフトウェアの水平分業が進む。要素技術がモジュール化され、世界的な部品市場が成立するので、垂直統合型の大企業よりも独立なベンチャー企業の競争力が高まる。
したがってITによって生産性が上がるかどうかは、企業がどこまでそれに対応するかに依存する。情報処理コストの低下によって利益を得られる企業の価値は高まるが、既得権を失う企業の価値は低下する。グーグルのような計算資源浪費型の企業のコストは、何もしなくても3年で1/4(ムーアの法則)のペースで低下するが、ブロードバンドの普及で市場を失う放送局は、何もしなければ蒸気機関のように絶滅するだろう。
すべての物体が重力の法則に従うように、現代のいかなる産業もムーアの法則による創造的破壊をまぬがれることはできない。ITの性能向上は、鉄道や電力と違って指数関数的であり、40年以上にわたって一定だから、破壊力は一段と大きい。しかも半導体だけでなく、光ファイバーでも磁気ディスクでも光学ディスクでも急速な技術革新が続いている。その原因は、情報がデジタル化され、電荷や磁気があるかないかの識別さえできれば、1ビットの情報が蓄積できるようになったからだ。原理的には、識別の単位は原子レベルまで小さくすることができるので、計算・記憶能力の急速な上昇は、まだ10年以上は続くだろう。
今後10年、ムーアの法則が続いたとすると、情報処理コストは現在の1/100になる。それはいいかえれば、いま情報処理に投入されている人的・物的資源の99%が過剰になるということである。もちろん価格の低下によって需要も拡大するが、既存の設備の陳腐化も急速に進む。こうした状況で大事なのは、Jensenのいうように、ITがつねに生み出す膨大な過剰設備・過剰雇用に対応して、古い産業からすみやかに退出して新しい産業に資源を移転する資本市場のメカニズムだ。ITが経済システムを変えるのは、これからである。
過剰の経済学
彼は「豊かな資源を浪費して不足するものを節約する」という経済原則にもとづいて、トランジスタを浪費する(Carver Mead)ことがマイクロコズム(コンピュータ世界)の鉄則であり、帯域が毎年倍増するという「ギルダーの法則」によって、帯域を浪費することがテレコズム(通信世界)の鉄則だと主張した。この預言を信じて、ノーテルやルーセントは光ファイバーに巨額の投資を行い、JDSユニフェーズの株価は天文学的な額になったが、テレコズムの楽園は実現しなかった。「最後の1マイル」という稀少性が解決しなかったからである。だから残念ながら、いまだに経済学は正しいのだ。すべての資源が自由財になることがありえない以上、ある資源が過剰になれば、必ず別の資源が相対的に稀少なボトルネックになるから、重要なのは過剰な資源ではなくボトルネックなのである。
ムーアの法則でコンピュータの情報処理能力が自由財に近づいているというのは正しいが、問題はそれによって何がボトルネックになるかである。ハーバート・サイモン(1971)の有名な言葉を引用すると、
情報の豊かさは、それがそれが消費するものの稀少性を意味する。情報が消費するものは、かなり明白である。それは情報を受け取る人の関心を消費するのである。したがって情報の豊かさは関心の稀少性を作り出し、それを消費する膨大な情報源に対して関心を効率的に配分する必要が生じる。
資本主義の前提は、資本が稀少で労働は過剰だということだ。工場を建てて多くの労働者を集める資金をもっているのは限られた資本家だから、資本の稀少性の価格として利潤が生まれる。これは普通の製造業では今も正しいが、情報の生産については状況は劇的に変わった。ムーアの法則によって、1960年代から今日までに計算能力の価格は1億分の1になったからである。
これは建設に100億円かかった工場が100円で建てられるようになるということだから、こうなると工場に労働者を集めるよりも、労働者が各自で「工場」を持って生産する方式が効率的になる。それが現実に起こったことである。メインフレーム時代には、稀少な計算機資源を割り当てるため、ユーザーはバッチカードを持ってコンピュータの利用時間を待ったが、PCの登場によってボトルネックはユーザーになった。ここでは逆に、ユーザーの稀少な時間を効率的に配分するため、コンピュータは各人に所有され、その大部分は遊んでいる。
つまり情報生産においては、資本主義の法則が逆転し、個人の関心(時間コスト)を効率的に配分するテクノロジーがもっとも重要になったのである。だからユーザーが情報を検索する時間を節約するグーグルが、その中心に位置することは偶然ではない。資本主義社会では、稀少な物的資源を利用する権利(財産権)に価格がつくが、情報社会では膨大な情報の中から特定の情報に稀少な関心を引きつける権利(ネット広告)に価格がつく。
20世紀の大衆消費社会では、こういう関心の配分は大して重要な問題ではなかった。規格化された商品を大量生産・大量消費するには、マスメディアで一律の情報を一方的に流せばよかったからだ。しかしロングテール現象が示すように、人々の真の選好は想像されていた以上に多様で変わりやすく、そこから利益を得る技術はまだほとんど開発されていない。マーケティングというのは、ハイテクとは無縁のドブ板営業だと思われてきたが、これを合理化することが今後のITのフロンティアの一つになろう。
ITは「退出」のテクノロジー
情報処理デバイスの価格が急速に低下し続けると、それ以外のすべての生産要素の相対価格が上がる。つまり他の生産要素で行っている作業をデジタル化するコストが低下する。たとえば動画(NTSC)をデジタル伝送するには270Mbpsの帯域が必要で、当初はデジタル化は不可能だと思われていたが、圧縮技術の進歩によって現在では1Mbpsあれば伝送できるようになった。映像をデジタル伝送・蓄積・再生するコストが圧倒的に低くなったため、アナログ技術のコストが相対的に上がり、コンピュータに代替されたのである。このように特定の目的のための固有技術をコンピュータのような汎用技術が駆逐する現象は、今に始まったことではない。かつて蒸気機関、鉄道、自動車、電力などは、伝統的な技術に代わって多くの用途に使われる基盤技術となった。しかし、それは応用技術の効率を上げることで生産性を高める技術(enabling technology)なので、産業構造が汎用技術に対応しないと経済成長率は上がらない。最初に発電所ができたのは1870年代だが、電力エネルギーが蒸気機関を上回ったのは1920年代だった。生産性が上がったのは、電力とモーターを使った「オートメーション」が普及してからだ。
デジタル革命の場合も、最初のMPUができた1970年から30年以上たっても、その効果は十分発揮されていない。産業構造がまだ製造業型のままだからである。コンピュータの最大の特徴は、従来は分野ごとに異なる機械で行われていた情報処理をソフトウェアに置き換え、汎用のハードウェアで実行することである。映像処理も事務処理も同じハードウェアでできるので、用途ごとの境界はなくなり、その代わりハードウェアとソフトウェアの水平分業が進む。要素技術がモジュール化され、世界的な部品市場が成立するので、垂直統合型の大企業よりも独立なベンチャー企業の競争力が高まる。
したがってITによって生産性が上がるかどうかは、企業がどこまでそれに対応するかに依存する。情報処理コストの低下によって利益を得られる企業の価値は高まるが、既得権を失う企業の価値は低下する。グーグルのような計算資源浪費型の企業のコストは、何もしなくても3年で1/4(ムーアの法則)のペースで低下するが、ブロードバンドの普及で市場を失う放送局は、何もしなければ蒸気機関のように絶滅するだろう。
すべての物体が重力の法則に従うように、現代のいかなる産業もムーアの法則による創造的破壊をまぬがれることはできない。ITの性能向上は、鉄道や電力と違って指数関数的であり、40年以上にわたって一定だから、破壊力は一段と大きい。しかも半導体だけでなく、光ファイバーでも磁気ディスクでも光学ディスクでも急速な技術革新が続いている。その原因は、情報がデジタル化され、電荷や磁気があるかないかの識別さえできれば、1ビットの情報が蓄積できるようになったからだ。原理的には、識別の単位は原子レベルまで小さくすることができるので、計算・記憶能力の急速な上昇は、まだ10年以上は続くだろう。
今後10年、ムーアの法則が続いたとすると、情報処理コストは現在の1/100になる。それはいいかえれば、いま情報処理に投入されている人的・物的資源の99%が過剰になるということである。もちろん価格の低下によって需要も拡大するが、既存の設備の陳腐化も急速に進む。こうした状況で大事なのは、Jensenのいうように、ITがつねに生み出す膨大な過剰設備・過剰雇用に対応して、古い産業からすみやかに退出して新しい産業に資源を移転する資本市場のメカニズムだ。ITが経済システムを変えるのは、これからである。
初めて書き込みをさせて頂きます。
大変示唆に富む素晴らしいblogをありがたく拝読させてもらっています。自分はコンピ
ュータ関連の技術者の端くれの一人ですが、当blogにおけるムーアの法則などの半導体
関連技術の今後の進化速度に関して些か過信しすぎている様に御見受けます。
今後は確実に進化速度は遅れると思われます。
理由は以下の事が考えられます。
1.リーク電流(サブスレッショルドリーケージ、ゲートリーケージなど)
2.配線遅延
3.パッケージピン数の限界
4.マルチドロップバスの限界
1.の理由により、仮に更なる微細加工が可能だとしてもリーク電流による発熱で冷却困難
になります。現在既にアイロンの発熱面並みの熱密度です。今後原子炉並みの熱密度にな
る可能性が懸念されています。よって熱密度を下げる為にスカスカの回路になります。
しかしこれでは集積密度が下がって微細加工が無意味になります。
この問題は数年前から発覚している問題で米Intel社はこのことが理由で大幅に売上を落
としています。
2.の理由により動作周波数が頭打ちになります。先頃米IBM社が新しいプロセッサを発表
しまして、それが驚異的な動作周波数になりそうですがそれでもPC用のプロセッサの2倍
に満たない周波数です。また、それ以上となると全くの五里霧中です。特にPC用では今後
動作周波数の向上は殆ど期待できないと思われます。
3.により、プロセッサに接続できるメモリ量に限界が既に訪れています。
ピン数を増やすとコストが高くなります。米Intel社は以前、ピン数=コストとまで明言し
ていたほどです。ピン数を増やす技術はまだ未知数です。
また仮にピン数を増やしてもそれをはんだ付けするプリント基板が対応できるか不明です。
多ピンの配線は極めて困難なので基板のコストが大幅に上がる可能性があります。余り知
られていませんが、電子部品では基板のコストがかなり大きいです。場合によっては一番
高い部品になる事もあります。そのような部品をさらに高コストにするとムーアの法則が
成立しなくなることに貢献するでしょう。
4.もプロセッサに接続できるメモリ量の限界に繋がります。ドロップ数を増やした場合、
メモリのアクセス速度を下げないと動作不良を起こします。
速度を上げる為にはドロップ数を減らさないと動作不良を起こします。
仮にプロセッサとメモリを完全にpoint to pointに接続すると、3.のピン数の問題が発生
します。いずれにしても現状では速度と搭載量は互いに排他となっております。解決策と
しては貫通電極によるメモリチップのプロセッサチップへの直接スタッキングなどが考え
られているようですが、まだ実験室レベルのものですので、実用化の予定は立っていない
ようです。
また、半導体では有りませんが、ハードディスクなどの磁気デバイスは温度が上がると記
憶の保持が困難になります。またそれは微細化すると限界温度が下がります。これもそれ
ほど遠くない将来は限界に達する可能性があると思います。
以上のような理由によって今後10年間に1/100になることはありえないと私は考えています。
もし1/100がありえるのなら、それは現在とは全く異なる技術を用いたものになると思います。
そういったものにムーアの法則は適用出来ないと思います。なぜなら半導体ではないのですから。