Trust but Verify:DAVinCIを紹介—言語モデルによる主張推論における二重帰属と検証のためのフレームワーク
arXiv cs.AI / 2026/4/25
📰 ニュースDeveloper Stack & InfrastructureModels & Research
要点
- 本論文では、LLMのハルシネーションを抑え、生成された主張の信頼性を高めることを目的とした「DAVinCI」という二重帰属・検証フレームワークを提案している。
- DAVinCIは(i)生成した主張を内部モデル構成要素と外部ソースへ帰属させる段階と、(ii)含意ベースの推論によって各主張を検証し、信頼度をキャリブレーションする段階の2つで構成される。
- FEVERやCLIMATE-FEVERなど複数のデータセットで、DAVinCIは検証のみのベースラインと比べて分類精度やF1などの指標を5〜20%改善した。
- アブレーション研究により、性能への主な寄与が「証拠スパン選択」「再キャリブレーションの閾値」「検索品質」であることが切り分けられている。
- さらに、既存のLLMパイプラインに組み込めるモジュール型の実装も公開され、監査可能で説明責任のあるAIシステムへのスケーラブルな道筋を示している。



