大規模言語モデルによる生成の事実性を高めるための適応的コンフォーマル予測
arXiv cs.CL / 2026/4/16
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、LLMの事実性に対する現在のコンフォーマル予測法が抱える重要な制約に取り組む。すなわち、これらはしばしばプロンプト適応的でないため、不確実性やキャリブレーションが入力に依存して変化するばらつきを適切に反映できない。
- そこで、LLM向けのコンフォーマルスコア変換を拡張する適応的コンフォーマル予測フレームワークを提案し、周辺(マージナル)のカバレッジ保証を維持しつつ、プロンプトに依存したキャリブレーションを可能にする。
- この方法により、特に長文生成や複数選択式の質問応答において、条件付きカバレッジが改善される。これらのタスクでは、事実性のリスクがプロンプトによって異なる。
- 下流での利用に先立って信頼できない主張や選択肢をフィルタリングすることで、選択的予測(selective prediction)を支援する。
- 複数のホワイトボックスLLMおよび複数の領域に対する実験により、条件付きカバレッジ指標で既存のベースラインを大幅に上回ることが示される。




