Textual Bayes:LLMベース・システムにおけるプロンプト不確実性の定量化
arXiv stat.ML / 2026/4/21
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、高リスク領域での誤ったキャリブレーションが問題になる状況も踏まえ、LLMベース・システムにおける不確実性を正確に定量化するという未解決課題に取り組みます。
- プロンプト文を統計モデル上の「テキスト上のパラメータ」として扱うことで、ベイズ的な枠組みを提示し、プロンプトのパラメータと下流の予測の両方に対する不確実性を定量化できるようにします。
- Metropolis-Hastings through LLM Proposals(MHLP)というMCMC手法を提案し、プロンプト最適化の発想と標準的なマルコフ連鎖モンテカルロを組み合わせて、プロンプトに対するベイズ推論を実行可能にします。
- MHLPは「ターンキー」で既存のLLMパイプライン(クローズドソースのブラックボックスLLMに依存する場合も含む)に組み込めるとされ、複数のベンチマークで予測精度と不確実性定量化(UQ)の両方が向上すると示します。
- より広く、本研究は、確立されたベイズ手法をLLM時代に取り込んで、より信頼できキャリブレーションの良いLLMベース・システムを実現する道筋を示すものだと主張しています。
関連記事

新しいモデルが出るたびに、当然ながら古いモデルは時代遅れになる
Reddit r/LocalLLaMA

NVIDIA DGX SparkフルスタックAIハッカソンで作ったものが総合1位に—『Starfire』から『Molecules AI』へ
Dev.to

進捗を失わない:VS Codeでプロ仕様のJupyterワークフローをセットアップする(Colabのタイムアウトともおさらば!)
Dev.to

AgentOSを作る:保険請求の「AWS Lambda」を目指している理由
Dev.to

状況はここまで来た——1年で何もかも変わった:Kimi、Minimax、Qwen、Gemma、GLM
Reddit r/LocalLLaMA