「わかりません」を超えて:データ不確実性とモデル不確実性を見分けるためのLLM自己認識の評価
arXiv cs.CL / 2026/4/21
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、信頼度が不十分な場合にLLMが回答を控えるべきだとしつつ、従来研究では拒否を一律の「わかりません」として扱い、入力データの曖昧さ(データ不確実性)とモデル能力の限界(モデル不確実性)を区別できていないと指摘している。
- 3,500問超・6つのデータセットを含むUA-Benchを新たに提案し、LLMが不確実性をデータ不確実性とモデル不確実性のどちらに帰属させられるかを検証するベンチマークを用意している。
- 18の最先端LLMを評価した結果、トップモデルでさえ両者の切り分けを確実に行うのが難しく、正答率の高さが不確実性帰属能力の高さと必ずしも結びつかないことが示された。
- ギャップを埋めるために、軽量なデータ合成と強化学習の手法を提案し、Qwen3-4B-Instruct-2507およびQwen3-8B(thinking mode)で不確実性帰属の改善と回答精度の維持を報告している。
- コードとデータは公開されているとしている。
関連記事

新しいモデルが出るたびに、当然ながら古いモデルは時代遅れになる
Reddit r/LocalLLaMA

NVIDIA DGX SparkフルスタックAIハッカソンで作ったものが総合1位に—『Starfire』から『Molecules AI』へ
Dev.to

進捗を失わない:VS Codeでプロ仕様のJupyterワークフローをセットアップする(Colabのタイムアウトともおさらば!)
Dev.to

AgentOSを作る:保険請求の「AWS Lambda」を目指している理由
Dev.to

状況はここまで来た——1年で何もかも変わった:Kimi、Minimax、Qwen、Gemma、GLM
Reddit r/LocalLLaMA