LLMの推論は潜在的であり、連鎖的思考(CoT)の連なりではない
arXiv cs.AI / 2026/4/20
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、LLMの「推論」は観測可能な表面上の連鎖的思考(CoT)が忠実であることとしてではなく、潜在状態の軌跡(latent-state trajectory)の形成として研究すべきだと主張している。
- 信頼性(faithfulness)、解釈可能性、推論ベンチマーク、推論時介入といった主張は、研究者が「推論」の主要な対象だとみなすものに依存すると論じている。
- 著者らは、しばしば混同される3つの要因を切り分け、競合する仮説として「潜在軌跡が主に媒介する推論」(H1)、「明示的な表面CoTが主に媒介する推論」(H2)、「特権的な表現対象よりも汎用の逐次計算が主に説明する」(H0)を整理している。
- 既存の実証・メカニズム・サーベイ研究をこの枠組みに再編し、表面トレースと潜在介入、さらに計算予算の増加を分離する“計算監査済み”の例を追加したうえで、現時点の証拠はH1をデフォルトの作業仮説として最も強く支持していると結論づけている。
- 本論文は、LLM推論の研究対象として潜在状態ダイナミクスを既定にし、表面トレース・潜在状態・逐次計算を明示的に切り分けた設計で推論を評価すべきだという2つの提言を行っている。


