大規模言語モデルにおける表現(Representation)

arXiv cs.CL / 2026/5/4

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、大規模言語モデル(LLM)の振る舞いを駆動する主要メカニズムについて、「表現に基づく情報処理」か「記憶と確率的な参照(テーブルルックアップ)」かという理論上の対立点を検討する。
  • 著者は、LLMが実装しているアルゴリズムの種類を特定することが本質的な問いだとして、表現ベースの処理と記憶的な挙動の両方が寄与している可能性を論じる。
  • この問いは、LLMが信念・意図・概念・知識・理解を持つと言えるのかといった、哲学および認知科学レベルの問題にも重大な含意を持つと位置づける。
  • 著者は、LLM内部の表現を調べ、観測された構造に基づいて説明を組み立てるための実践的手法を提案し、擁護する。
  • 将来の理論化を進めるための土台として、言語モデルおよびその後継に関する研究の基盤と方法を提供することを目指している。

要旨: 多様な課題における近年の大規模言語モデル(LLM)の驚異的な成功は、それらがどのようにしてそれを行うのかを説明しようとする、科学的かつ哲学的な理論化の爆発的な増加につながりました。残念ながら、基礎的な理論上の問題に関する意見の不一致が行き詰まりを招いており、LLMの楽観論者と悲観論者の固定化された陣営は、これらのシステムがどのように機能するのかについてしばしばまったく異なる見解に固執しています。この行き詰まりを克服するには、基礎的な問いについての合意が必要です。本論文の目的は、そのような問いの一つ、すなわち「LLMの振る舞いは、生物の認知で問題とされる種類の表象に基づく情報処理によって部分的に駆動されているのか、それとも、記憶の保持と確率的な表(テーブル)参照によるプロセスによって完全に駆動されているのか?」に取り組むことです。これは、LLMが実装しているアルゴリズムがどのような種類のものかという問いであり、その答えは、これらのシステムが信念、意図、概念、知識、理解をもっているかどうかといった、より高次の問いに対して重大な含意を持ちます。私は、LLMの振る舞いは部分的に表象に基づく情報処理によって駆動されていると主張し、そのうえで、それらの表象を調べ、当該表象に基づく説明を発展させるための一連の実践的手法を述べ、擁護します。得られた説明は、言語モデルおよびその後継に関する今後の理論化のための土台を提供します。

大規模言語モデルにおける表現(Representation) | AI Navigate