要旨: 拡散大型言語モデル(DLMs)の反復的なノイズ除去パラダイムは、グローバルな文脈モデリングにおける明確な優位性をそれらにもたらします。しかし、現在のデコーディング戦略はこの能力を十分に活用できず、典型的には文脈内の情報密度が不均質である点を見落とす局所的な嗜好が現れ、その結果として生成品質が低下します。この制約に対処するために、情報密度が高い(HD)トークンを体系的に調査し、2つの主要な知見を提示します:(1)HDトークンを明示的に条件付けすると、出力品質が大幅に向上すること; および(2)HDトークンは早期デコーディングの傾向を示し、周辺のトークンよりも早く収束することです。これらの知見に動機づけられ、学習を行わない(training-free)デコーディング戦略である Focus on the Core \textbf{(FoCore)} を提案します。これはHDトークンを自己コントラストの形で用い、HDトークンを一時的にマスクし直して負のサンプルとして扱うことで生成を導くものです。さらに、HDトークンの収束を検出した際に、局所的な文脈ウィンドウ内の安定した候補に対して並列デコーディングを行うことで、生成を大幅に加速する効率的な派生手法 FoCore\_Accelerate \textbf{(FoCore\_A)} も導入します。数学・コード・論理推論のベンチマークに対する大規模な実験により、FoCore は LLaDA および Dream の双方のバックボーンにおいて一貫して生成品質と効率を改善することが示されます。例えば HumanEval では、FoCore は標準の Classifier-Free Guidance に対して pass@1 を 39.02 から 42.68 に向上させ、FoCore-A はデコーディングステップ数を 2.07x 減らし、サンプルあたりのレイテンシを 20.76s から 8.64s(-58.4\%)に低減します。
コアに焦点を:自己コントラストによる拡散型大規模言語モデルの強化
arXiv cs.CL / 2026/5/5
📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research
要点
- 拡散型大規模言語モデル(DLM)は反復ノイズ除去によってグローバルな文脈モデリングに強みがある一方、従来のデコーディングは局所的になりがちで、文脈内の情報密度のばらつきを活かせず生成品質を低下させる。
- 本論文では情報密度が高い(HD)トークンに着目し、(1) HDトークンを明示的に条件付けすると出力品質が大きく向上すること、(2) HDトークンは周辺トークンより早くデコードされやすく収束が早いことを見出す。
- これらの知見に基づき、HDトークンを一時的に負例としてリマスクする自己コントラスト方式を用いた、学習不要のデコーディング手法「Focus on the Core(FoCore)」を提案する。
- さらに、HDトークンが収束したことを検知すると安定した候補を局所ウィンドウ内で並列デコードして、生成を大幅に高速化する「FoCore_Accelerate(FoCore_A)」も導入する。
- 数学・コード・論理推論ベンチマークで、LLaDAおよびDreamの両バックボーンに対して、FoCoreは品質を、FoCore_Aは効率を一貫して改善し、HumanEvalではpass@1が39.02から42.68へ向上し、レイテンシも20.76秒から8.64秒(−58.4%)へ減少する。




