TRIMS: Trajectory-Ranked Instruction Masked Supervision for Diffusion Language Models
arXiv cs.CL / 4/3/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- 拡散言語モデル(DLM)は並列復号による低遅延生成が期待される一方で、標準訓練が「トークンがどの順で現れるか(復号軌道)」を明示的に監督しないため、訓練と推論でのミスマッチが効率低下につながると指摘しています。
- 提案手法TRIMSは、既存のマスク拡散言語モデル(MDLM)学習に最小オーバーヘッドで「復号軌道に基づく監督」を組み込む、軽量な教師信号による軌道ガイド付き微調整フレームワークです。
Related Articles

90000 Tech Workers Got Fired This Year and Everyone Is Blaming AI but Thats Not the Whole Story
Dev.to

Microsoft’s $10 Billion Japan Bet Shows the Next AI Battleground Is National Infrastructure
Dev.to

TII Releases Falcon Perception: A 0.6B-Parameter Early-Fusion Transformer for Open-Vocabulary Grounding and Segmentation from Natural Language Prompts
MarkTechPost

The house asked me a question
Dev.to

Precision Clip Selection: How AI Suggests Your In and Out Points
Dev.to