SGAP-Gaze:シーングリッド注意に基づくドライバー視線推定ネットワーク
arXiv cs.CV / 2026/4/23
📰 ニュースSignals & Early TrendsModels & Research
要点
- 本記事は、ドライバーの顔情報に加えて交通シーンの文脈を明示的に取り込むことで視線の推定精度を高める、ポイント・オブ・ガゼ(PoG)推定ネットワーク「SGAP-Gaze」を提案しています。
- 連動したドライバーの顔画像と交通シーン画像を提供するベンチマークデータセット「Urban Driving-Face Scene Gaze(UD-FSG)」を新たに導入し、シーンを意識した視線学習と評価を可能にしています。
- SGAP-Gazeは、顔の複数モダリティ(顔・目・虹彩)から視線意図ベクトルを統合し、Transformerベースの注意機構でシーンの空間グリッド上に注意スコアを算出してPoGを得ます。
- 実験ではUD-FSGで平均ピクセル誤差104.73、LBWで63.48を達成し、既存の最先端ドライバー視線推定モデルに対して平均ピクセル誤差を23.5%削減したと報告されています。
- 空間的な誤差分布の分析では、ドライバーの注意を把握する上で重要だが出現頻度が低いシーン外周領域においても、SGAP-Gazeが既存手法より一貫して低い誤差を示しています。




