言語モデルのための幾何学的キャリブレーション付き縮約(Conformal Abstention)

arXiv cs.CL / 2026/5/1

📰 ニュースModels & Research

要点

  • 本論文は、LLMが特定の質問に必要な知識を持たないとき、無関心・不確実性を認めずにもっともらしい(ただし幻覚の可能性がある)回答を生成してしまう問題に取り組む。
  • 事後的な枠組み「Conformal Abstention(CA)」を提案し、これはconformal prediction(CP)を適応してクエリごとに回答を拒否(abstain)するかを判断する。
  • CAは、参加率(abstainしない確率)と生成回答の正しさについて、有限標本での保証を提供し、回答拒否の判断にはCPで用いる非適合度スコアではなく予測信頼度を使う。
  • 予測信頼度が本当の「無知」を反映するようにするため、モデル内部の表現における幾何学(表現ジオメトリ)を用いて「知識の関与度」を測るキャリブレーション手法を導入する。
  • 実験では選択的回答の改善が示され、条件付き正解率は約75%に達する。