ヘレン・ケラーが言葉を覚えたエピソードは有名である。サリバン先生がケラーの手のひらに水を注いで"water"という文字を指で綴ったとき、ケラーは初めてそれが水という液体を意味すると知った。ここではwaterという言葉が水という意味に1対1に対応しているようにみえる。
しかし手のひらの液体は飲料水かもしれないし、雨水かもしれない。確かなことはそれにwaterという名前がついていることだけだ。つまり本質が言葉を生むのではなく、言葉(シニフィアン)が意味(シニフィエ)を生み出すのだ。その関係は恣意的であり、発音と意味には因果関係はないというのが、ソシュールの構造言語学の重要な発見である。
それとほぼ同じことを、その2000年近く前にナーガールジュナ(龍樹)が書いている。彼は『中論』で「すべてのものの原因となる自性は認められない」という。自性は自己完結的な本質という意味で、これは「世界に因果関係や本質はない」という<空>の思想である。これは世界が存在しないと言っているのではなく、その意味が一義的に決まらないというソシュールの恣意性と同じだ。
ではその意味は何で決まるのか。それは縁起で決まるというのが中観派の思想だが、これは因果関係ではなく相互依存関係である。意味はその本質ではなく、外界や身体との相互作用や他の言葉との関係で決まる。たとえばwaterの意味はoilとの差異で決まるのだ。
本書は1987年の本なのでそれ以上は書いてないが、このような大乗仏教の関係主義は、ヴァレラも指摘するようにニューラルネットの思想と似ている。それは1990年代以降の人工知能の重要な発見だった。
これは本質から言葉を導き出すのではなく、子供のように親の言葉をまねているのだ。この学習の過程はニューラルネットを応用した深層学習で、甘利俊一氏が数学的にモデル化した神経回路網とよく似ている。
ではそのトレーニングデータに当たるものは何か。それは唯識派のアラヤ識に似ていると著者はいう。これは言語学でいうと言語体系(ラング)を生み出す言語活動(ランガージュ)のようなもので、それ自体は言葉にならないが、脳内で過去の記憶をたどり、新しい経験で更新する。
GPTの大規模言語モデル(LLM)の設計思想がソシュールの構造言語学やウィトゲンシュタインの言語使用説に似ているのは偶然ではない。西洋哲学をながく呪縛してきたキリスト教の影響が19世紀に弱まり、合理主義をつきつめるとニヒリズムになるのは、ニーチェも大乗仏教も同じだ。
これは人間の思考についても示唆を含んでいる。チョムスキーのようなロジックで考える言語理論は役に立たないが、LLMのように膨大なデータで試行錯誤する方法だと自然な日本語になる。それは人間の言語習得能力のコアが論理ではなく、このような「ものまね」だからである。こういう能力は霊長類の中でも人類だけがもっている。
LLMはトレーニングデータが少ないとでたらめな文字列を出すが、GPT-ο1のように1兆語以上の学習データがあれば、似たような文がどこかにあり、それをまねるだけでいい。このように試行錯誤をくり返してそれをデータにフィードバックする深層学習の効率は、べき乗則で上がるので、規模の経済がきわめて大きい。
人間の子供も1年間に何百万語も聞いており、意外に大きなトレーニングデータをもっている。それがチョムスキー的な論理型の言語理論よりはるかに役に立つことは、人間の脳のしくみについても大きな示唆を与える。
しかし手のひらの液体は飲料水かもしれないし、雨水かもしれない。確かなことはそれにwaterという名前がついていることだけだ。つまり本質が言葉を生むのではなく、言葉(シニフィアン)が意味(シニフィエ)を生み出すのだ。その関係は恣意的であり、発音と意味には因果関係はないというのが、ソシュールの構造言語学の重要な発見である。
それとほぼ同じことを、その2000年近く前にナーガールジュナ(龍樹)が書いている。彼は『中論』で「すべてのものの原因となる自性は認められない」という。自性は自己完結的な本質という意味で、これは「世界に因果関係や本質はない」という<空>の思想である。これは世界が存在しないと言っているのではなく、その意味が一義的に決まらないというソシュールの恣意性と同じだ。
ではその意味は何で決まるのか。それは縁起で決まるというのが中観派の思想だが、これは因果関係ではなく相互依存関係である。意味はその本質ではなく、外界や身体との相互作用や他の言葉との関係で決まる。たとえばwaterの意味はoilとの差異で決まるのだ。
本書は1987年の本なのでそれ以上は書いてないが、このような大乗仏教の関係主義は、ヴァレラも指摘するようにニューラルネットの思想と似ている。それは1990年代以降の人工知能の重要な発見だった。
人間の言語習得は「ものまね」
チャットGPTも、言葉の意味は知らない。ある単語の次にどんな単語が来る確率が高いかを予測し、その結果を学習して膨大なトレーニングデータとして蓄積しているだけだ。これは本質から言葉を導き出すのではなく、子供のように親の言葉をまねているのだ。この学習の過程はニューラルネットを応用した深層学習で、甘利俊一氏が数学的にモデル化した神経回路網とよく似ている。
ではそのトレーニングデータに当たるものは何か。それは唯識派のアラヤ識に似ていると著者はいう。これは言語学でいうと言語体系(ラング)を生み出す言語活動(ランガージュ)のようなもので、それ自体は言葉にならないが、脳内で過去の記憶をたどり、新しい経験で更新する。
GPTの大規模言語モデル(LLM)の設計思想がソシュールの構造言語学やウィトゲンシュタインの言語使用説に似ているのは偶然ではない。西洋哲学をながく呪縛してきたキリスト教の影響が19世紀に弱まり、合理主義をつきつめるとニヒリズムになるのは、ニーチェも大乗仏教も同じだ。
これは人間の思考についても示唆を含んでいる。チョムスキーのようなロジックで考える言語理論は役に立たないが、LLMのように膨大なデータで試行錯誤する方法だと自然な日本語になる。それは人間の言語習得能力のコアが論理ではなく、このような「ものまね」だからである。こういう能力は霊長類の中でも人類だけがもっている。
LLMはトレーニングデータが少ないとでたらめな文字列を出すが、GPT-ο1のように1兆語以上の学習データがあれば、似たような文がどこかにあり、それをまねるだけでいい。このように試行錯誤をくり返してそれをデータにフィードバックする深層学習の効率は、べき乗則で上がるので、規模の経済がきわめて大きい。
人間の子供も1年間に何百万語も聞いており、意外に大きなトレーニングデータをもっている。それがチョムスキー的な論理型の言語理論よりはるかに役に立つことは、人間の脳のしくみについても大きな示唆を与える。



