概要: 小さな言語モデルが自らの正しさをどれほど確実に見積もれるかは、どの程度でしょうか? この答えは、安価なローカルモデルが扱えない場合におけるローカルからクラウドへのルーティング—クエリのエスカレーション—が、教師あり学習データなしで機能し得るかどうかを決定します。推論コストが大規模言語モデル(LLM)の導入予算を支配する中で、多くのクエリを安価なローカルモデルに振り向け、難しいケースにのみ高価なクラウド呼び出しを予約することは、ますます一般的なコスト制御戦略になっています。本研究では、3つの7-8Bモデルファミリと2つのデータセット(各モデルにつきそれぞれ1,000クエリおよび500クエリ)にわたって、ゼロショットの確信度シグナルを RouteLLM のような教師ありベースラインと比較します。トークンの平均対数尤度(log-probability)は学習データを必要としませんが、イン分布(Area Under the Receiver Operating Characteristic curve(AUROC)0.650-0.714 対 0.644-0.676)では教師ありベースラインと同等、あるいはそれを上回り、さらにアウトオブディストリビューションでは大幅に上回ります(0.717-0.833 対 0.512-0.564)。これは、クエリ分布ではなくモデルの生成の性質を測定しているためです。本論文ではさらに、事前生成シグナルである「検索条件付き自己評価」を提案します。これは、類似度が高い場合に限って、検索で得られた知識を選択的に注入し、対数尤度による自己評価に比べて最大 +0.069 AUROC 向上します(同時に、対数尤度より3-10倍低い遅延で動作します)。1,000件のラベル付き例で学習した教師ありベースラインは、ゼロショットのシグナルを決して超えません。私たちは、すべてのコード、データ、実験ログを公開します。
小規模LLMにおけるゼロショット自己の確信度推定:教師ありベースラインを学習する価値がない場合
arXiv cs.AI / 2026/5/5
📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research
要点
- この論文は、小型(7–8B)LLMが自身の正しさ(正答可能性)をどれだけ信頼できる形で見積もれるかを評価し、教師あり学習なしでローカルからクラウドへ段階的にルーティングするコスト削減を狙います。
- 7–8Bの複数モデル群と2つのデータセットで、ゼロショットの確信度シグナル(特に平均トークン対数尤度)が、教師ありのRouteLLM風ベースラインと比べて、分布内では同等以上(AUROC 0.650–0.714 vs. 0.644–0.676)で、分布外では大きく上回ります(0.717–0.833 vs. 0.512–0.564)。
- 改善の理由として、クエリ分布ではなく「モデル生成そのものの性質」を測っているため、学習や設定の前提を外れた場合でも一般化しやすい点が挙げられます。
- 著者らは、類似度が高いときのみ検索知識を選択的に注入する「検索条件付き自己評価」を提案し、AUROCを最大+0.069改善しつつ、対数尤度より3–10倍低いレイテンシを実現します。
- 1,000件のラベル付き例で学習した教師ありベースラインは、最良のゼロショット信号を超えられず、コード・データ・実験ログを公開しています。




