FastDiSS: シーケンス・ツー・シーケンス生成におけるFew-step Match Many-step Diffusion Language Model—フルバージョン
arXiv cs.CL / 2026/4/8
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、連続拡散言語モデルにおける自己条件付けが、few-stepサンプリングでは破綻することを主張している。すなわち、事前推定が不正確であると脱ノイズ(denoising)ステップを通じて誤差が増幅し、その結果出力品質が大きく低下する。
- 推論時に観測されるノイズ特性により適合するように、自己条件付け信号に摂動を加える学習フレームワークFastDiSSを提案し、近似ギャップを低減する。
- FastDiSSはさらに、学習の飽和を避け最適化の安定性を高めるためのトークン単位のノイズ認識メカニズムも追加している。
- 条件付き生成ベンチマークでの実験により、FastDiSSは標準的な連続拡散モデルより改善し、1-step拡散アプローチと競合的な性能を維持しつつ、最大400倍の高速な推論が可能であることが示されている。




