要旨: 大規模言語モデルは多くの言語タスクにおいて優れた性能を示しますが、それでもなお、人間の会話における非線形な流れを管理するという根本的な課題に直面しています。対話履歴を平坦で線形な系列として扱うという一般的なアプローチは、自然な言説が本質的に備える階層的で分岐する構造と整合していないため、文脈の利用効率が低下し、話題の切り替えや指示の改良を伴う長時間のやり取りの間に首尾一貫性が失われてしまいます。この制約に対処するために、私たちは Context-Agent という新しい枠組みを提案します。これは、多ターンの対話履歴を動的な木構造としてモデル化します。このアプローチは会話の内在する非線形性を模倣し、異なる話題に対応する複数の対話分岐を、モデルが維持しながら探索できるようにします。さらに、堅牢な評価を可能にするために、長期の地平にまたがる非線形シナリオにおけるモデル性能を評価することを目的として特別に設計した、Non-linear Task Multi-turn Dialogue(NTM)ベンチマークを導入します。実験の結果、Context-Agent はさまざまな LLM においてタスク完了率を向上させ、トークン効率も改善することが示されました。これは、複雑で動的な対話に対する構造化された文脈管理の価値を裏付けています。データセットとコードは GitHub で公開されています。
Context-Agent:非線形対話のための動的ディスコースツリー
arXiv cs.CL / 2026/4/8
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、標準的なLLMの対話処理――会話履歴を平坦な系列として扱うこと――は、人間のディスコースが持つ階層的で分岐する性質に対応できず、長時間のやり取りでは一貫性を損なう可能性があると主張している。
- そこで提案されるのが Context-Agent であり、多ターン対話の文脈を動的なツリーとして表現することで、会話の変化に応じて複数のトピック分岐をシステムが維持し、横断できるようにする。
- 非線形かつ長期的な挙動を評価するため、著者らは分岐する対話シナリオにおける性能を測定することを目的とした NTM(Non-linear Task Multi-turn Dialogue)ベンチマークを導入している。
- 本論文の実験結果では、複数のLLMにおいてタスク完了率の向上とトークン効率の改善が示されており、構造化された文脈管理が複雑な対話における有効性を高めることを示唆している。
- 著者らは、再現とさらなる発展を支援するため、データセットおよびコードをGitHubで公開している。



