CodaRAG:補完的学習に着想を得た連想性によって点をつなぐ

arXiv cs.CL / 2026/4/14

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • CodaRAGは、知識集約的なタスクにおけるLLMの困難さに対処するため、取得したエビデンスを孤立したスニペットとして扱うのではなく、首尾一貫した論理的な連鎖へと結び付ける方法を改善することを提案する。
  • 本フレームワークは、補完的学習システムに着想を得て、取得を能動的なプロセスとして組み込む。三段階のパイプラインとして、知識の統合(Knowledge Consolidation)、多次元の経路にわたる連想的ナビゲーション(Associative Navigation)、ノイズの多いハイパー連想を刈り込む干渉の除去(Interference Elimination)を用いる。
  • GraphRAG-Benchでの実験では、従来手法と比べて取得リコールが絶対値で7〜10%改善し、生成精度が3〜11%向上した。
  • 著者らは、より高い精度の推論コンテキストを維持することで、CodaRAGが事実、推論、創造的タスクにおける連想的エビデンス取得を頑健にできると主張している。
  • 全体として、本研究は取得をグラフ/連想性の問題と位置付け、エビデンスの連鎖を明示的に再構成することで、幻覚(ハルシネーション)や断片化した推論を抑えることを狙っている。

要旨: 大規模言語モデル(LLM)は、幻覚や分散した情報に対する推論の断片化のため、知識集約的なタスクに苦労します。検索拡張生成(RAG)は生成を外部ソースに基づかせますが、既存の手法では、多くの場合、証拠を孤立した単位として扱い、これらの点をつなぐ論理的な連鎖を再構築できていません。相補的学習システム(CLS)に着想を得て、我々は CodaRAG を提案します。これは、検索を受動的な参照から能動的な連想的発見へと進化させる枠組みです。CodaRAG は 3 段階のパイプラインによって動作します: (1) 知識の統合により、断片化された抽出を安定したメモリ基盤へ統一すること; (2) 連想ナビゲーションにより、グラフを多次元の経路—すなわち意味的、文脈化された、機能的—によってたどり、分散した証拠の連鎖を明示的に回復すること; そして (3) 介入(干渉)の排除により、過剰に連想的なノイズを刈り込み、首尾一貫した高精度の推論コンテキストを確保することです。GraphRAG-Bench において、CodaRAG は検索リコールで絶対的な 7-10% の向上、生成精度で 3-11% の向上を達成します。これらの結果は、CodaRAG が事実、推論、創造的タスクに対して、連想的な証拠検索を体系的かつ頑健に強化する点で優れていることを示しています。