推論トポロジーが重要:複雑な推論タスクのためのNetwork-of-Thought

arXiv cs.CL / 2026/3/24

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • この論文は、既存のLLMプロンプト構造(Chain-of-ThoughtおよびTree-of-Thought)は、証拠の統合、行き戻り、統合の再検討を要する複雑な推論には限界があると主張し、そのための新しい枠組み「Network-of-Thought(NoT)」を提案する。
  • NoTは、型付きノードと有向エッジからなる有向グラフとして推論を表現し、グラフベース探索と中間表現の再利用を導くヒューリスティックに基づくコントローラ方策を用いる。
  • GSM8K、Game of 24、HotpotQA、ProofWriterにわたる実験を、3つのモデル(GPT-4o-mini、Llama-3.3-70B-Instruct、Qwen2.5-72B-Instruct)で行った結果、NoTは多段推論(例:HotpotQA)においてToTを上回ることができ、モデルによっては全体の最良精度を達成する場合もある。
  • 本研究では、LLMが生成するコントローラのヒューリスティックが固定的またはランダムな戦略よりも優れることがあり、またNoTの性能は計算量と精度のトレードオフに依存することを明らかにした。
  • さらに、評価手法がランキングに大きく影響することも報告している。特にオープンエンドQAにおいては、文字列一致メトリクスが手法(とりわけNoT)を過小評価し、HotpotQAで報告されるギャップは約14〜18パーセントポイントに達する。