ConfLayers:自己推奨(セルフ・スペキュレーティブ)デコーディングにおける適応的信頼度ベースの層スキッピング
arXiv cs.LG / 2026/4/17
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- この論文では、出力品質を落とさずに大規模言語モデルの生成を高速化することを目的とした、新しい自己推奨(セルフ・スペキュレーティブ)デコーディング手法「ConfLayers」を提案しています。
- 従来はレイヤースキップの方針を学習したりヒューリスティックに頼ったりすることが多いのに対し、ConfLayersは信頼度に基づく中間層スキッピングによってドラフトモデルをプラグ&プレイで構成します。
- ConfLayersは、全層の信頼度スコアを反復的に計算し、適応的に閾値を変えながらスキップする層を選択して、その性能を評価し、改善が止まるまで、または反復回数の上限に達するまで繰り返します。
- 専用のレイヤースキッピング方針を学習するための訓練コストや複雑さを回避しつつ、ドラフトモデルがタスクやデータセットに適応できる性質を維持することを狙っています。
- 複数のモデルとデータセットでの評価により、ConfLayersはバニラのLLM生成に対して最大1.4×の速度向上を示しています。



