BIAS: A Biologically Inspired Algorithm for Video Saliency Detection

arXiv cs.CV / 4/13/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • BIASは、Itti-Koch枠組みに基づき、網膜に着想した動き検出器で時間的特徴を抽出しつつ、静的情報とモーション情報を統合した動画サリエンシ検出を行う生物模倣モデルです。
  • FOA(foci of attention)の推定には、情報最大化とwinner-take-all競合のバランスを取る貪欲なマルチガウスのピークフィッティング手法が用いられます。
  • ミリ秒スケールの低遅延でサリエンシマップを生成し、DHF1Kでヒューリスティック手法や複数のディープラーニングモデルに対して優位性を示し、特にボトムアップ注意が支配的な動画で性能が高いと報告されています。
  • 交通事故分析への適用では、手動アノテーションに対して最大0.72秒前に事故を予測し、原因-結果認識のSOTA性能と実運用での有用性が示されています。

Abstract

We present BIAS, a fast, biologically inspired model for dynamic visual saliency detection in continuous video streams. Building on the Itti--Koch framework, BIAS incorporates a retina-inspired motion detector to extract temporal features, enabling the generation of saliency maps that integrate both static and motion information. Foci of attention (FOAs) are identified using a greedy multi-Gaussian peak-fitting algorithm that balances winner-take-all competition with information maximization. BIAS detects salient regions with millisecond-scale latency and outperforms heuristic-based approaches and several deep-learning models on the DHF1K dataset, particularly in videos dominated by bottom-up attention. Applied to traffic accident analysis, BIAS demonstrates strong real-world utility, achieving state-of-the-art performance in cause-effect recognition and anticipating accidents up to 0.72 seconds before manual annotation with reliable accuracy. Overall, BIAS bridges biological plausibility and computational efficiency to achieve interpretable, high-speed dynamic saliency detection.