AI Navigate

離散拡散発散指示(DiDi-Instruct)による超高速言語生成

arXiv cs.CL / 2026/3/13

💬 オピニオンIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • 訓練ベースの手法で、事前学習済みの拡散型大規模言語モデル(dLLM)から数ステップの学生モデルを蒸留し、迅速な生成を可能にする Discrete Diffusion Divergence Instruct(DiDi-Instruct)を紹介。
  • 積分KL発散最小化を基盤とし、グループ化報酬正規化、中間状態の整合、および報酬誘導祖先サンプラーを追加して、訓練の安定性、モデルのカバレッジ、推論品質を向上させる。
  • 蒸留モデルは、蒸留教師であるdLLMおよびGPT-2のベースラインと同等またはそれを上回る一方で、従来の蒸留手法と比較して最大64倍の加速と訓練時間を20倍以上削減する。
  • OpenWebTextベンチマークでは、パープレキシティが62.2(8 NFEs)から18.4(128 NFEs)へ改善され、従来の加速型dLLMsおよびGPT-2ベースラインを上回る。これらの利得はエントロピー損失がほぼゼロ(約1%)に留まり、他の競合するdLLM蒸留法と比較して追加の訓練実時間を20倍以上短縮する。
  • さらに、広範なアブレーション研究、モデルスケーリング、下流タスク評価、および無条件タンパク質配列生成を通じて、DiDi-Instructの頑健性と有効性を検証した。
  • 結論として、DiDi-Instructは言語生成の効率的かつ効果的な蒸留を可能にし、速度とリソース使用に実用的な影響を与える。
高速で高品質な言語生成は、AI時代に人々が追求する聖杯である。本研究では、Discrete Diffusion Divergence Instruct(DiDi-Instruct)を導入する。これは訓練ベースの手法で、事前学習済みの拡散型大規模言語モデル(dLLM)から初期化し、迅速な生成のために数ステップの学生モデルへ蒸留する。DiDi-Instructで蒸留されたモデルは、dLLM教師モデルおよびGPT-2ベースラインと同等またはそれを上回る一方で、最大で64倍の加速を提供する。DiDi-Instructの理論的基盤は、積分KL発散最小化を基にした新しいフレームワークであり、実践的な訓練アルゴリズムへと結びつく。さらに、訓練の安定性、モデルのカバレッジ、推論品質を向上させるために、グループ化報酬正規化、中間状態の整合、および報酬誘導祖先サンプラーを導入する。OpenWebTextベンチマークでは、DiDi-Instructは62.2(8 NFEs)から18.4(128 NFEs)までのパープレキシティを達成し、従来の加速型dLLMsおよびGPT-2ベースラインを上回る。これらの利得はエントロピーの損失をほぼゼロ(約1%程度)に留め、他の競合するdLLM蒸留法と比較して追加の訓練実時間を20倍以上短縮する。さらに、広範なアブレーション研究、モデルスケーリング、下流タスク評価、および無条件タンパク質配列生成を通じて、DiDi-Instructの頑健性と有効性を検証した。結論として、DiDi-Instructは言語生成の蒸留を瞬時に、効率的に実現できると主張している。