複数検定に基づく大規模言語モデルにおける幻覚(ハルシネーション)検出の原理的手法
arXiv cs.CL / 2026/4/29
💬 オピニオンModels & Research
要点
- この論文は、大規模言語モデルにおける幻覚検出を仮説検定問題として定式化し、機械学習における分布外検出の考え方と結び付けています。
- 複数の検出器スコアリングルールを、適合(コンフォーマル)p値によって集約する「複数検定に着想を得た手法」を提案しています。
- この手法は、誤警報(偽陽性)の率を制御することで、キャリブレーションされた幻覚検出を目指しています。
- 多様なモデルとデータセットに対する大規模な実験により、最先端の幻覚検出手法に対して頑健であることが示されています。
- 実運用上の重要な課題として、どの経験的スコアリングルールを信頼すべきかを原理的に判断できる点を重視しています。



