LLMにおける不確実性の解剖学
arXiv cs.AI / 2026/3/27
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、既存のLLM不確実性手法(単一のスコアや、アレアトリック/エピステミックへの分解)は、生成モデルを改善するための実行可能な指針を提供していないと主張する。
- LLMの不確実性を、3つの意味的構成要素(入力の曖昧さ、知識の不足、デコーディングのランダム性)に分解することを提案する。
- 実験では、主要な不確実性成分はモデルのサイズやタスクの種類によって変わり得ることが示唆される。
- 本フレームワークは、LLMの信頼性をより適切に監査し、幻覚を検出するための方法として提示され、信頼できる導入に向けたより的を絞った介入を可能にする。




