YUV20K: A Complexity-Driven Benchmark and Trajectory-Aware Alignment Model for Video Camouflaged Object Detection

arXiv cs.CV / 4/14/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • 本論文は、Video Camouflaged Object Detection(VCOD)で課題となっている“複雑な動き”に起因する外観の不安定さと時系列特徴のミスアライメントを扱う新しい研究を提案している。
  • 課題のデータボトルネックに対し、24,295フレーム・91シーン・47種のピクセルレベル注釈を含む「YUV20K」という複雑度駆動のベンチマークを構築し、特に大きな変位移動やカメラモーションなど複数の困難シナリオを対象にしている。
  • 方法面では、Motion Feature Stabilization(MFS)によるフレーム非依存のSemantic Basis Primitivesでの特徴安定化と、Trajectory-Aware Alignment(TAA)による軌跡ガイド付き変形可能サンプリングでの精密な時間整合を組み合わせた枠組みを提示している。
  • 実験結果では既存データセットでのSOTA超えに加え、YUV20K上で新しいベースラインを確立し、複雑な時空間状況に対する横断ドメインでの汎化性と頑健性の向上も報告している。

Abstract

Video Camouflaged Object Detection (VCOD) is currently constrained by the scarcity of challenging benchmarks and the limited robustness of models against erratic motion dynamics. Existing methods often struggle with Motion-Induced Appearance Instability and Temporal Feature Misalignment caused by complex motion scenarios. To address the data bottleneck, we present YUV20K, a pixel-level annoated complexity-driven VCOD benchmark. Comprising 24,295 annotated frames across 91 scenes and 47 kinds of species, it specifically targets challenging scenarios like large-displacement motion, camera motion and other 4 types scenarios. On the methodological front, we propose a novel framework featuring two key modules: Motion Feature Stabilization (MFS) and Trajectory-Aware Alignment (TAA). The MFS module utilizes frame-agnostic Semantic Basis Primitives to stablize features, while the TAA module leverages trajectory-guided deformable sampling to ensure precise temporal alignment. Extensive experiments demonstrate that our method significantly outperforms state-of-the-art competitors on existing datasets and establishes a new baseline on the challenging YUV20K. Notably, our framework exhibits superior cross-domain generalization and robustness when confronting complex spatiotemporal scenarios. Our code and dataset will be available at https://github.com/K1NSA/YUV20K