表象生成における表前提の問題(Representation Genesis)

arXiv cs.AI / 2026/3/24

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • この論文は、大規模言語モデルが「表象生成(representation genesis)」の問題を独自に提起すると主張する。というのも、それらが非表象的な物理状態から、内容に敏感な表象的状態へと移行したのかどうかを、明確に同定できないためである。
  • さらに、既存の心の哲学的枠組み(たとえば、心の言語(Language of Thought)、テレオセマンティクス、予測処理、エナクティビズム、遺伝的現象学)はいずれも、同様の構造的欠陥を共有していると論じる。すなわち、それらはシステムがすでに表象者として組織化されている場合にだけ、説明として筋が通る概念を用いているという点である。
  • この共通の欠陥は「表象的前提(Representation Presupposition)構造」と名づけられ、「説明の先送り(explanatory deferral)」を招き、さらに、説明しようとしているまさにその側から表象的資源を持ち込むことによって回帰(regress)が生じる。
  • 論文は新しいメカニズムを提案するのではなく、概念的な診断を提示し、前提/回帰パターンを回避するために、いかなる説明も満たすべき2つの最小限の十分条件を導出する。
  • 満足のいく理論が存在しないことの重要性は、生成過程について不確実性があるにもかかわらず、LLMが高い認知的に見えるパフォーマンスを示すことを踏まえると、新たに重大な意味を帯びるものとして提示される。