Skill-SD: Skill-Conditioned Self-Distillation for Multi-turn LLM Agents
arXiv cs.LG / 4/14/2026
📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research
Key Points
- Skill-SD は、マルチターン LLM エージェント学習における強化学習のサンプル効率の低さ(疎な報酬・長いホライズン)を、自己蒸留で補う枠組みとして提案されています。
- 既存の OPSD(固定された特権教師によるトークンレベル教師信号)では多様な有効戦略を表現しにくく、RL と組み合わせると崩壊しやすい点が問題視されています。
- Skill-SD は、完了したエージェント軌跡を自然言語の「スキル」に要約し、教師側だけに動的な特権情報として与えることで、学生は通常のタスクプロンプトの下で蒸留によりその知見を内面化します。
- 学習安定化のために、重要度付き逆 KL に基づく勾配補正付きのトークン蒸留損失を導入し、さらに改善する学生に応じて教師を動的に同期させます。
- 実験では agentic benchmarks にて、GRPO や OPD のバニラに対して AppWorld/Sokoban 等で大幅な性能向上が報告されています。
Related Articles

Black Hat Asia
AI Business

Big Tech firms are accelerating AI investments and integration, while regulators and companies focus on safety and responsible adoption.
Dev.to

Don't forget, there is more than forgetting: new metrics for Continual Learning
Dev.to

Microsoft MAI-Image-2-Efficient Review 2026: The AI Image Model Built for Production Scale
Dev.to
Bit of a strange question?
Reddit r/artificial