分散を考慮した適応的重み付けによる拡散モデル訓練
arXiv cs.LG / 2026/3/12
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、損失分散の観点から拡散モデルにおける log-SNR ノイズレベル間の訓練不均衡を特定し、最適化と安定性を妨げる可能性があることを示す。
- 観測されたノイズレベル間の分散に基づいて訓練ウェイトを動的に調整し、最適化をより均等に促す分散を意識した適応的重み付け戦略を提案する。
- CIFAR-10およびCIFAR-100での実験により、提案手法は標準的な訓練方式と比較して生成性能を一貫して向上させ、FIDを低下させるとともに乱数シード間の分散も低減することを示した。
- 損失-log-SNRの可視化や分散ヒートマップ、アブレーション研究などの追加分析は、適応的重み付けが訓練ダイナミクスを安定化させることを示し、拡散モデルの訓練改善に対する分散を意識した訓練の有用性を示唆する。
要旨: 拡散モデルは近年、生成モデルにおいて顕著な成功を収めている一方で、異なるノイズレベルに対する訓練ダイナミクスは依然として高度に不均衡であり、これが最適化の非効率や学習挙動の不安定性を招く可能性がある。本研究では、この不均衡を log-SNR レベル間の損失分散の観点から検討し、それに対処する分散を意識した適応的重み付け戦略を提案する。提案手法は、観測された分散分布に基づいて訓練ウェイトを動的に調整し、ノイズレベル間でよりバランスの取れた最適化プロセスを促進する。CIFAR-10および CIFAR-100 での広範な実験により、提案手法は標準的な訓練スキームより一貫して生成性能を向上させ、FID の低下とともにランダムシード間の性能分散も低減することが示された。損失-log-SNR の可視化、分散ヒートマップ、およびアブレーション研究を含む追加分析は、適応的重み付けが訓練ダイナミクスを効果的に安定化させることをさらに示している。これらの結果は、拡散モデルの最適化を改善するための分散を意識した訓練戦略の潜在能力を示唆している。
関連記事
Day 10: 230 Sessions of Hustle and It Comes Down to One Person Reading a Document
Dev.to

5 Dangerous Lies Behind Viral AI Coding Demos That Break in Production
Dev.to
Two bots, one confused server: what Nimbus revealed about AI agent identity
Dev.to

OpenTelemetry just standardized LLM tracing. Here's what it actually looks like in code.
Dev.to
PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark forFinance
Dev.to