AI Navigate

URAG: 検索補助型大規模言語モデルにおける不確実性量化のベンチマーク

arXiv cs.AI / 2026/3/23

📰 ニュースIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • URAGは、医療、プログラミング、科学、数学、一般テキストといった分野に跨る、検索補助生成(RAG)システムの不確実性を定量化するために設計された新しいベンチマークです。
  • このベンチマークは、オープンエンドの生成タスクをマルチプルチョイス質問として再構成し、コンフォーマル予測を用いた厳密な不確実性定量を可能にし、LACおよびAPS指標による正確さと予測集合サイズで性能を評価します。
  • 8つの標準的なRAG手法にわたって、URAGは、正確さの向上はしばしば不確実性の低下とともに生じることを示しますが、検索ノイズの影響下ではこの関係は崩れます。より単純なモジュラーRAG手法は、より複雑な推論パイプラインよりも、精度と不確実性のトレードオフの点で優れる傾向があり、分野を横断して普遍的に信頼できるアプローチはありません。
  • この研究では、検索深さ、パラメトリック知識への依存、信頼度の手掛かりへの曝露が自信過剰な誤りや幻覚を増幅する可能性があることを明らかにし、再現性のためGitHubにホストされたコードベースを提供します。

Abstract

Retrieval-Augmented Generation (RAG) has emerged as a widely adopted approach for enhancing LLMs in scenarios that demand extensive factual knowledge. However, current RAG evaluations concentrate primarily on correctness, which may not fully capture the impact of retrieval on LLM uncertainty and reliability. To bridge this gap, we introduce URAG, a comprehensive benchmark designed to assess the uncertainty of RAG systems across various fields like healthcare, programming, science, math, and general text. By reformulating open-ended generation tasks into multiple-choice question answering, URAG allows for principled uncertainty quantification via conformal prediction. We apply the evaluation pipeline to 8 standard RAG methods, measuring their performance through both accuracy and prediction-set sizes based on LAC and APS metrics. Our analysis shows that (1) accuracy gains often coincide with reduced uncertainty, but this relationship breaks under retrieval noise; (2) simple modular RAG methods tend to offer better accuracy-uncertainty trade-offs than more complex reasoning pipelines; and (3) no single RAG approach is universally reliable across domains. We further show that (4) retrieval depth, parametric knowledge dependence, and exposure to confidence cues can amplify confident errors and hallucinations. Ultimately, URAG establishes a systematic benchmark for analyzing and enhancing the trustworthiness of retrieval-augmented systems. Our code is available on GitHub.