意味セグメンテーションにおける「カノニカル」知識蒸留が意外に効果的である理由
arXiv cs.CV / 2026/4/29
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、意味セグメンテーション向けKDの先行研究が多くの場合「同じ反復回数」で比較しているため、反復あたりの計算コストが異なり、結果として計算予算が揃っていない可能性があると指摘している。
- 壁時計時間ベースで計算量を揃えると、複雑な手作り目的関数を用いる近年のセグメンテーション特化手法よりも、カノニカルな(ロジット/特徴ベースの)KDの方が性能で上回ることを示している。
- 訓練を長くした場合、特徴ベース蒸留はResNet-18学生モデルでCityscapesとADE20Kにおいて最先端性能を達成する。
- PSPNetのResNet-18学生(教師のパラメータの約1/4のみ)でも高い精度を維持し、Cityscapesで教師のmIoUの99%(79.0 vs. 79.8)、ADE20Kで92%をそれぞれ達成する。
- これらの結果は、セグメンテーション向けKDにはタスク固有の仕組みが必要という前提に疑問を投げかけ、今後の設計は複雑な目的関数よりもスケーリング(訓練規模)を重視すべきだと示唆している。



