概要: 大規模言語モデル(LLM)エージェントは、長い文脈を扱う相互作用においてしばしば困難に直面します。エージェントがより多くの相互作用履歴を蓄積するにつれ、スライディングウィンドウやプロンプト圧縮といった文脈管理アプローチは、後続の手順が依存する以前の構造化情報を省略してしまう可能性があります。近年の検索ベースのメモリシステムは関連コンテンツを提示するものの、それでも多段推論に必要な因果的・論理的構造を見落としています。私たちは、エージェントの相互作用トレースを推論ステップのグラフとして整理し、将来の行動のために関連する文脈を選択する、選択的かつ依存関係に基づくメモリフレームワークであるContextWeaverを提案します。従来の文脈管理アプローチとは異なり、ContextWeaverは次をサポートします:(1)各ステップが依拠する先行ステップへとリンクする依存関係に基づく構築と探索;(2)ルートからステップまでの推論パスを再利用可能な単位へと凝縮するコンパクトな依存要約;(3)実行フィードバックを取り込む軽量な検証レイヤ。SWE-Bench VerifiedおよびLiteのベンチマークにおいて、ContextWeaverはpass@1でスライディングウィンドウのベースラインよりも性能を向上させる一方で、推論ステップ数とトークン使用量を削減します。私たちの観察は、ツールを用いるLLMエージェントに対して、論理的な依存関係をモデル化することが安定的かつ拡張可能なメモリ機構を提供することを示唆しています。
ContextWeaver:選択的かつ依存関係に基づくLLMエージェントのメモリ構築
arXiv cs.CL / 2026/4/28
📰 ニュースModels & Research
要点
- LLMエージェントは長い対話になるほど、スライディングウィンドウやプロンプト圧縮のような一般的な手法では重要な過去情報(後続で必要になる構造化情報)が欠落しやすい。
- ContextWeaverは、エージェントのやり取りの履歴を「推論ステップのグラフ」として表し、各ステップが依存する過去ステップを結び付ける依存関係に基づくメモリを提案している。
- さらに、ルートから各ステップまでの推論パスをコンパクトに要約して再利用可能な単位へ凝縮し、論理構造を効率よく将来の行動に活かせる。
- 実行フィードバックを取り込む軽量なバリデーション層により、選択したコンテキストの信頼性を高める。
- SWE-Bench VerifiedおよびLiteで、ContextWeaverはスライディングウィンドウ基準よりpass@1が向上し、推論ステップ数とトークン使用量も削減できた。


