Decocted Experience による LLM エージェントのテスト時推論の改善
arXiv cs.AI / 2026/4/7
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、モデルパラメータを更新せずに LLM エージェントの性能を向上させる方法を扱い、無駄な計算を減らし、探索が不適切になることを抑えるテスト時推論の改善に焦点を当てている。
- テスト時の計算量に加えて、入力コンテキストを補完的なスケーリング軸として用いることを提案し、エージェントの推論を導くうえでコンテキスト構築の質が重要であると主張する。
- 著者らは「decocted experience(デコクト化された経験)」という仕組みを導入し、その分析を行う。これは、過去の経験から本質を抽出し、それを首尾一貫した形に整理し、重要な部分を取り出して、推論およびエージェント的振る舞いのためのより良いプロンプトを構築する。
- 経験を拡張したエージェントについて体系的に研究し、蓄積された経験に応じて性能がどのようにスケールするか、有効なコンテキストの特徴は何か、そしてどのデータ構造がコンテキスト構築を支えるのかを調べる。
- 実験により、このアプローチは数学的推論、ウェブ閲覧、ソフトウェア工学タスクの各領域で検証され、decocted experience が LLM エージェントのテスト時推論結果を改善することが示される。




