パラメータの彼方へ:大規模言語モデルにおける文脈強化(コンテキスト・エンリッチメント)の技術調査—インコンテキスト・プロンプトから因果的リトリーバル拡張生成まで

arXiv cs.CL / 2026/4/6

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、大規模言語モデルを推論時により構造化された情報で補強する方法を調査し、「構造化された文脈の度合い」という単一の軸に沿って手法を整理する。
  • インコンテキスト・プロンプト/プロンプトエンジニアリングと、RAG、GraphRAG、CausalRAG を含む検索ベースのアプローチを取り上げ、静的なパラメータや有限の文脈ウィンドウに起因する制約を克服することに焦点を当てて両者を結び付ける。
  • 本調査は、明確な文献スクリーニング手順および、レビュー対象の各研究における高い確信度の結果と新興的な知見を切り分けるための主張監査(claim-audit)フレームワークを提案する。
  • 結論では、実運用(デプロイメント)を見据えた意思決定フレームワークと、検索拡張型NLPシステムの信頼性(trustworthiness)を高めることを目的とした具体的な研究優先事項を示す。

概要: 大規模言語モデル(LLM)は、そのパラメータに膨大な世界知識を符号化しているものの、静的な知識、有限のコンテキストウィンドウ、構造化が弱い因果推論という根本的な制約により、依然として本質的に限界があります。本調査では、推論時に与えられる構造化コンテキストの度合いという単一の軸に沿って、拡張(augmentation)戦略を統一的に捉える説明を提示します。本稿では、インコンテキスト学習とプロンプトエンジニアリング、Retrieval-Augmented Generation(RAG)、GraphRAG、CausalRAGを扱います。概念的な比較にとどまらず、透明性のある文献スクリーニング手順、主張の監査(claim-audit)フレームワーク、そして高い確信度のある知見と萌芽的な結果を区別する、構造化された論文横断のエビデンス統合を提供します。本論文は、信頼できる検索拡張型NLPのための、デプロイメント志向の意思決定フレームワークと具体的な研究優先事項で締めくくります。