GateMOT:Qゲート付き注意(Q-Gated Attention)による高密度物体追跡
arXiv cs.CV / 2026/4/30
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 標準的な注意機構は、高解像度のモーション推定に対して二乗オーダーの全結合(all-to-all)相互作用が計算的に重いため、高密度物体追跡ではそのまま適用しにくい。
- GateMOTはQゲート付き注意(Q-Gated Attention)を提案し、Queryを学習可能なゲーティングユニット(Gating-Q)として置き換えることで、Key特徴を要素ごとに確率的に変調し、コストの高い大域的集約なしに関連性を明示的に選択する。
- 共有特徴マップに対して複数の並列Q注意ヘッドを用い、検出・モーション推定・再識別のためのタスク固有かつ整合的な表現を生成し、結合したマルチタスクデコーダを構成する。
- BEE24でHOTA 48.4、MOTA 67.8、IDF1 64.5という最先端性能を報告し、他の高密度物体追跡ベンチマークでも強い結果を示しており、Q-Attentionが同種の密な追跡シナリオに移植可能な構成要素であることを示唆している。



