1.x-Distill: Breaking the Diversity, Quality, and Efficiency Barrier in Distribution Matching Distillation
arXiv cs.CV / 4/7/2026
📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research
Key Points
- 1.x-Distillは、Diffusionモデルの反復的なノイズ除去コストを抑えるための「小ステップ(fractional-step)蒸留」枠組みで、従来の整数ステップ制約を破って実用的な1.x-step生成を目指す手法だ。
- 分布マッチング蒸留(DMD)が2ステップ以下で起こしがちな多様性崩壊や忠実度低下に対し、教師側CFGの役割を分析したうえでモード崩壊を抑える修正を提案している。
- 極端に少ないステップ条件での性能向上として、粗い構造を多様性保持の分布マッチングで学び、詳細を推論整合的な敵対的蒸留で磨く「Stagewise Focused Distillation」の二段階戦略を導入する。
- さらにDistill–Cache co-Training向けに軽量な補償モジュールを設計し、ブロック単位のキャッシュを蒸留パイプラインへ自然に組み込めるようにしている。
- 実験ではSD3-Medium/SD3.5-Largeで、先行するfew-step蒸留より品質と多様性が改善し、実効NFEがそれぞれ1.67/1.74で最大33倍の速度向上(元の28×2 NFE比)を報告している。
Related Articles

Black Hat Asia
AI Business

Meta Superintelligence Lab Releases Muse Spark: A Multimodal Reasoning Model With Thought Compression and Parallel Agents
MarkTechPost

Chatbots are great at manipulating people to buy stuff, Princeton boffins find
The Register
I tested and ranked every ai companion app I tried and here's my honest breakdown
Reddit r/artificial

Big Tech firms are accelerating AI investments and integration, while regulators and companies focus on safety and responsible adoption.
Dev.to