会話ツリー・アーキテクチャ:コンテキストに応じたマルチブランチLLM会話のための構造化フレームワーク

arXiv cs.CL / 2026/3/24

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、現在のLLMチャット・インターフェースの限界を指摘している。具体的には、フラットで追記のみの会話履歴では、トピック的に異なるスレッドが混ざりやすくなり、著者らが「論理コンテキスト汚染(logical context poisoning)」と呼ぶ現象を通じて応答品質が低下する。
  • そこで、Conversation Tree Architecture(CTA)を提案する。CTAでは、会話を階層(木構造)の「コンテキストが隔離されたノード」として表現し、各ノードが独自のローカルなコンテキスト・ウィンドウを持つ。
  • CTAは、分岐を作成・削除する際のコンテキスト伝播に関する構造化されたルールを導入する。さらに、パージ(削除)する前に、上方向への選択的マージまたは破棄を必要とする「ボラティル・ノード(volatile nodes)」も扱う。
  • 著者らはアーキテクチャの基本要素を形式化し、コンテキストの流れに関する未解決課題を議論する。また、メモリ管理に関する先行研究との関連付けを行い、プロトタイプ実装を示す。加えて、マルチエージェント設定への拡張にも言及している。

Abstract

大規模言語モデル(LLM)は、拡張された複数トピックの会話に対してますます広く導入されているが、現在の会話インターフェースが持つ平坦で追記のみの構造には、根本的な制約がある。すなわち、すべての文脈(コンテキスト)が無制限に単一のウィンドウへ蓄積され、その結果、トピック的に異なるスレッド同士が互いに混ざり合い、応答品質が段階的に低下してしまう。私たちはこの失敗モードを論理的コンテキスト汚染(logical context poisoning)と呼ぶ。本論文では、Conversation Tree Architecture(CTA)を導入する。これは、LLMの会話を、離散的で文脈が隔離されたノードの木(ツリー)として整理する階層的な枠組みである。各ノードはそれぞれ独自のローカルな文脈ウィンドウを保持する。文脈が親ノードと子ノードの間でどのように流れるかについては、分岐(ブランチ)作成時の下流方向への伝播と、分岐削除時の上流方向への伝播を制御する、構造化された仕組みがある。さらに、揮発性ノード(volatile nodes)も導入する。これは一時的な分岐であり、そのローカル文脈は、パージ(消去)される前に、選択的に上方へ統合するか、あるいは恒久的に破棄しなければならない。私たちは、アーキテクチャの基本要素を形式化し、文脈フローにおける未解決の設計課題を特徴づけ、LLMのメモリ管理に関する先行研究との関連を示し、動作するプロトタイプ実装について説明する。CTAは、構造化された会話文脈管理のための原理に基づく基盤を提供し、マルチエージェント環境へ自然に拡張できる。