要旨: 自律的なマルチエージェントLLMシステムは、運用上のインシデントを調査し、構造化された診断レポートを作成するために、ますます導入が進んでいます。その信頼性は、各主張がモデル内部の推論ではなく、観測された証拠に基づいているかどうかにかかっています。既存の根拠妥当性(groundedness)評価器(2値分類器、LLM-as-judgeのスカラー、自己修正ループ)は、支持する証拠を互換的なものとして扱い、下流の行動を原理的に制御するための仕組みを欠いた単一の信号しか出力しません。
本稿では、GSAR(grounding-evaluation and replanning)を提案します。これは(i) 主張を4分類の類型(grounded、ungrounded、contradicted、complementary)に分割し、冗長ではない代替的観点に第一級の地位を与えること、(ii) 知識論的な強さを反映する証拠タイプ固有の重みを割り当てること、(iii) 非対称の「矛盾ペナルティ付き」加重根拠妥当性スコアを計算すること、(iv) そのスコアを3段階の意思決定関数(proceed、regenerate、replan)に結び付け、明示的な計算予算のもとで上限付きの反復を行う外側ループを駆動すること、を行います。
本アルゴリズムを形式化し、6つの構造的性質を証明し、独立に訓練された4つのLLMジャッジ(gpt-5.4、claude-sonnet-4-6、claude-opus-4-7、gemini-2.5-pro)と、金のWikipedia証拠を用いたFEVER上で5つの設計主張を評価します。全てのアブレーションは、全てのジャッジに対して同じ方向性で再現されます。ブートストラップによってrho=0効果に対する95%信頼区間を構築すると、4つすべてで0が除外されます。Opus 4.7下での「no-complementary」アブレーションでは、200に対して信頼区間は[-96,-68]です。n=1000では、3人の独立したジャッジがDeltaS(rho=0)=+0.058に収束します。VectaraのHHEM-2.1-Openに対する直接比較も含めています。私たちの知る限り、GSARは、証拠タイプに基づくスコアリングと、明示的な計算予算下での段階的な回復(recovery)を結び付けた最初の公表された根拠妥当性フレームワークです。
GSAR:マルチエージェントLLMにおける幻覚検出とリカバリのためのタイプ付き・グラウンディング
arXiv cs.AI / 2026/4/28
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- この論文では、インシデント調査で構造化された診断レポートを生成するマルチエージェントLLM向けに、GSARという新しいグラウンディング評価・再計画フレームワークを提案しています。
- GSARは、主張を「grounded/ungrounded/contradicted/complementary」の4分類に分け、さらに証拠を認識論的な強さに応じて重み付けすることで、幻覚への対処を強化します。
- 反証(contradiction)を非対称にペナルタイズした加重グラウンディングスコアを計算し、そのスコアを「proceed(継続)/regenerate(生成し直し)/replan(再計画)」の段階的な判断に結び付けます。
- 著者らはアルゴリズムを形式化し6つの構造的性質を証明したうえで、FEVER(ゴールドWikipediaエビデンス)と4種類の独立したLLMジャッジを用いた評価で設計上の5つの主張が一貫して再現されると報告しています。
- Vectaraのベースラインとの比較も含め、GSARは「証拠タイプ別のスコアリング」と「段階的なリカバリ」を「明示的な計算予算」のもとで結合した初の公開フレームワークだと主張しています。




