言語はこうして生まれる―「即興する脳」とジェスチャーゲーム―
幼児が言葉を覚える速さは驚異的である。家族の貧弱な言葉を聞くだけで、3歳児までにある程度しゃべれるようになる。大人になってから学校で外国語を習っても、子供の話す母国語にはとてもかなわない。

子供がどうやって限られたサンプルから豊かな言葉を創造するのか――この謎をチョムスキーは「プラトンの問題」と呼び、それに対する彼の答が普遍文法だった。世界中の子供は生まれながらに同じ普遍文法を脳にもっているというのだが、それは具体的にどんな文法なのか。チョムスキーの理論は二転三転し、50年以上たっても普遍文法は見つかっていない。

それに対してチャットGPTは、プラトンの問題を見事に解決した。そこには文法も辞書もなく、経験主義で文脈からパターンを推測して言葉を創造する。これはウィトゲンシュタインの言語ゲームの理論の実装である。Open AIのエンジニアはウィトゲンシュタインを知らなかったらしいから、彼の理論を独立に証明したことになる。

本書(原題は"The Language Game")は子供の言語習得の実験や観察で言語ゲームの理論を実証し、チョムスキーの理論を否定してチャットGPTに可能性を見出している。

これもチャットGPTにきいてみた

Q. チャットGPTはチョムスキーの普遍文法より、ウィトゲンシュタインの言語ゲームに似てますね。

GPT:その通りです! ChatGPTのような大規模言語モデル(LLM)は、チョムスキーの普遍文法よりも、ウィトゲンシュタインの言語ゲームの概念に似ていると言えます。それには次のような理由が考えられます。
  1. 文脈依存性:ChatGPTは、入力されたテキストの文脈に応じて適切な応答を生成します。言葉の意味や使い方を、事前定義された固定的なルールではなく、トレーニングデータの中で学んだパターンに基づいて判断します。
  2. 実際の使われ方の重視:ChatGPTは、言語が実際に使用されている「データ」を元に学習しているため、理論的な文法構造ではなく、現実の言語使用(言語ゲームのようなもの)に基づいて機能します。
  3. 規則ではなくパターン:チョムスキーの普遍文法が、言語の基本構造を「普遍的な規則」として捉えるのに対し、ChatGPTは統計的に「パターン」を学習します。これにより、特定の場面における言語使用の柔軟性を再現します。
  4. 社会的文脈の模倣:ウィトゲンシュタインの言語ゲームでは、言語の意味は社会的な相互作用に基づいています。同様に、ChatGPTもデータ内の言語の相互作用(例えば、対話の流れや質問への応答)を学び、これを再現します。

スクリーンショット (54)

言葉は「ジェスチャーゲーム」である

では大人になってから、子供のときのような言語習得能力がなくなるのはなぜか。それは子供のように遊ばなくなるからだ。子供の言葉は遊びの一部であり、互いに仲よくしたり喧嘩したりする行動の中でまねるものだ。

だからプラトンの問題の答は簡単である:子供が短期間に言葉を覚えるのは、それが楽しいからだ。現存する言語は7000種類以上あるが、その共通点は覚えやすいことだ。パターンを推測してまねることができ、それを覚えることが苦にならない言語が生き残ったと考えられる。

子供は遊びながら数多くの会話の中で言葉のパターンを覚え、それを使って言葉を使い、間違っていたら修正するというLLMと同じフィードバックで言葉を習得しているのだ。