広告

適応的検出器蒸留のための学習可能なインスタンス注意フィルタリング

arXiv cs.CV / 2026/3/30

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、空間/特徴のフィルタリングにおいて全ての物体インスタンスを一様に扱うのではなく、インスタンス単位のばらつきを考慮した適応的検出器知識蒸留のための枠組み LIAF-KD を提案する。
  • ヒューリスティックまたは教師主導の注意フィルタを用いる代わりに、LIAF-KD は学習可能なインスタンス・セレクタを導入し、インスタンスの重要度を動的に再重み付けする。さらに、学生は自身の学習状態の変化に応じて能動的に寄与する。
  • KITTI および COCO での実験により、一貫した性能向上が示されており、追加の複雑さなしで GFL ResNet-50 の学生モデルで約 2% の改善が報告されている。
  • これらの結果は、本手法が、検出器の効率と精度のトレードオフにおいて既存の最先端の蒸留手法を上回る可能性があることを示している。

Abstract

より高い性能を達成するために深いビジョンモデルがますます複雑化するにつれ、デプロイメントの効率は重要な懸念となっています。知識蒸留(KD)は、大規模な教師モデルの知識を小型の生徒モデルへ転移することでこの問題を緩和します。多くの特徴ベースのKD手法は、空間フィルタリングにより蒸留を導くことに依存していますが、一般にはすべての物体インスタンスを一様に扱い、インスタンスレベルの変動を無視しています。さらに、既存の注意フィルタリング機構は、通常ヒューリスティックまたは教師主導であり、生徒によって学習されるものではありません。これらの制限に対処するために、本研究では、適応的な検出器蒸留のための学習可能なインスタンス注意フィルタリング(Learnable Instance Attention Filtering for Adaptive Detector Distillation; LIAF-KD)を提案します。これは、蒸留中にインスタンスの重要度を動的に評価し再重み付けする、学習可能なインスタンスセレクタを導入する新しい枠組みです。注目すべき点として、このプロセスは生徒の変化する学習状態に基づいて行われます。KITTIおよびCOCOデータセットでの実験により、一貫した改善が示されます。追加の複雑さを伴わずにGFLのResNet-50生徒で2%の向上が得られ、最先端手法を上回ります。

広告