Trust but Verify:DAVinCIを紹介—言語モデルによる主張推論における二重帰属と検証のためのフレームワーク

arXiv cs.AI / 2026/4/25

📰 ニュースDeveloper Stack & InfrastructureModels & Research

要点

  • 本論文では、LLMのハルシネーションを抑え、生成された主張の信頼性を高めることを目的とした「DAVinCI」という二重帰属・検証フレームワークを提案している。
  • DAVinCIは(i)生成した主張を内部モデル構成要素と外部ソースへ帰属させる段階と、(ii)含意ベースの推論によって各主張を検証し、信頼度をキャリブレーションする段階の2つで構成される。
  • FEVERやCLIMATE-FEVERなど複数のデータセットで、DAVinCIは検証のみのベースラインと比べて分類精度やF1などの指標を5〜20%改善した。
  • アブレーション研究により、性能への主な寄与が「証拠スパン選択」「再キャリブレーションの閾値」「検索品質」であることが切り分けられている。
  • さらに、既存のLLMパイプラインに組み込めるモジュール型の実装も公開され、監査可能で説明責任のあるAIシステムへのスケーラブルな道筋を示している。