LLM推論の事実性に対する微分可能なコンフォーマル学習

arXiv cs.LG / 2026/4/23

📰 ニュースModels & Research

要点

  • 本論文は、コンフォーマル予測によりエラー率を校正して主張をフィルタし、ハルシネーションがユーザー指定の閾値(例:10%)を下回るようにすることで、LLMのハルシネーション問題に対処します。
  • 既存のコンフォーマル事実性手法を、多段推論に拡張し、出力を依存関係グラフとして表現することで、主張をその論理的な先祖(ancestor)と併せて共同で検証します。
  • しかし「Coherent Factuality」は微分可能ではないため、手作りのスコアラーに頼る必要があり、高い信頼性領域では真の主張のほぼ60%を除去してしまうという制約があります。
  • 著者らは「Differentiable Coherent Factuality(DCF)」を提案し、元アルゴリズムの統計的な信頼保証を証明可能に保ちつつ、より良いスコアラーを学習できるようにします。
  • 2つの推論ベンチマークでの実験では、DCFが信頼性保証を維持したまま、主張の保持率を最大141%改善できることが示され、信頼性の高いコンフォーマルLLMシステムへの前進を示しています。