深さの上限:潜在的な計画発見における大規模言語モデルの限界について

arXiv cs.LG / 2026/4/9

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、大規模言語モデルが複数ステップの潜在的計画戦略を発見し、途中ステップの教師信号なしに1回のフォワードパスでそれを実行できるかどうかを検証する。
  • 制御されたグラフの経路探索タスクに関する実験では、スケーリングでは解決されない明確な深さの上限が示される:小型トランスフォーマーは最大3つの潜在ステップまで学習でき、微調整したGPT-4oおよびQwen3-32Bは最大5、GPT-5.4は少数ショットのプロンプトによって最大7に到達する。
  • モデルは学習時に最大5の潜在的計画の深さまで獲得できる一方で、獲得した戦略はテスト時に最大8つの潜在ステップを実行することへと一般化し得る。
  • これらの結果は、「最終回答の教師信号から潜在的計画戦略を発見すること」と「発見後に潜在的深さをより大きくしてそれを正常に実行すること」との間に切り離し(dissociation)があることを示唆し、連鎖的思考(chain-of-thought)モニタリングの前提に関する制約を含意する。
  • 著者らは、同様の制限が一般化するなら、多段の協調的な潜在的計画には明示的な指示または外部化が必要になる可能性があるとしており、CoTモニタリングの有用性(ただし限界)を裏づけると主張している。

Abstract

chain-of-thought(CoT)モニタリングの有効性は、モデルが潜在表現の中で効果的に推論できないことに依存しています。しかし、LLMにおけるそのような潜在推論の限界については、ほとんど分かっていません。私たちは、モデルが中間ステップに対する監督なしで多段の計画戦略を発見できるかどうか、そしてそれを単一のフォワードパスの中で潜在的に実行できるかどうかを調べることで、これらの限界を検証します。必要とされる潜在計画ステップ数を正確に制御するグラフの経路探索タスクを用いることで、巨大なスケーリングでは未解決の、驚くべき限界が明らかになります。すなわち、スクラッチから学習した小型トランスフォーマーは最大で3つの潜在ステップを要する戦略を発見でき、微調整したGPT-4oとQwen3-32Bは5に到達し、GPT-5.4はfew-shotプロンプトで7を達成します。学習中にモデルが学習しうる最大の潜在計画の深さは5ですが、発見された戦略はテスト時に最大8つの潜在ステップまで一般化します。これは、最終回答の監督だけで潜在戦略を発見できる能力と、発見した後にそれを実行できる能力の間に分離があることを示しています。もし同様の限界がより広く成り立つなら、多数の協調した潜在計画ステップを必要とする戦略は、明示的に教えるか、外部化する必要があるかもしれず、CoTモニタリングに一定の信憑性を与えることになります。