人工知能をめぐるブームは、これまで4回あった。第1のブーム(1950年代)はほとんど話題にならなかったが、第2のブーム(1980年代)では日本の第5世代コンピュータなどの派手なプロジェクトがあった。このときは私も番組をつくったが、何も成果が出ないままに終わった。
1990年代にはニューラルネットの第3のブームがあったが、これも大した成果が出ないまま終わった。そして2020年代が第4のブームだが、深層学習は技術的にはニューラルネットの延長で、指紋認証や音声認識はできるようになったが、それは知能といえない。
だがチャットGPTには、今までの挫折を吹き飛ばすインパクトがあった。最大の鬼門だった自然言語処理を実現したからである。しかも翻訳だけでなく、ネット上の情報を検索して、もっともらしい日本語で答える。その言葉づかいが、普通の日本人とそう変わらない。
それを可能にしたのが、大規模言語モデル(LLM)である。おもしろいのは、それが記号接地問題という難問を解決したことだ。これは言葉に一義的な定義がなく、文脈によって異なる意味をどう解釈するかという問題だが、それをLLMは、意味を解釈しないという方法で回避したのだ。
続きは12月30日(月)朝7時に配信する池田信夫ブログマガジンで(初月無料)
1990年代にはニューラルネットの第3のブームがあったが、これも大した成果が出ないまま終わった。そして2020年代が第4のブームだが、深層学習は技術的にはニューラルネットの延長で、指紋認証や音声認識はできるようになったが、それは知能といえない。
だがチャットGPTには、今までの挫折を吹き飛ばすインパクトがあった。最大の鬼門だった自然言語処理を実現したからである。しかも翻訳だけでなく、ネット上の情報を検索して、もっともらしい日本語で答える。その言葉づかいが、普通の日本人とそう変わらない。
それを可能にしたのが、大規模言語モデル(LLM)である。おもしろいのは、それが記号接地問題という難問を解決したことだ。これは言葉に一義的な定義がなく、文脈によって異なる意味をどう解釈するかという問題だが、それをLLMは、意味を解釈しないという方法で回避したのだ。
続きは12月30日(月)朝7時に配信する池田信夫ブログマガジンで(初月無料)