SHANDS:外科手のジェスチャーおよびエラー認識のための医療トレーニングに向けたマルチビュー・データセットとベンチマーク
arXiv cs.CV / 2026/3/30
📰 ニュースSignals & Early TrendsModels & Research
要点
- 本論文は、医療トレーニングにおけるAI駆動の手のジェスチャー評価および研修生のエラー検出を支援する、大規模なマルチビュー外科手術動画データセットSurgical-Hands(SHands)を提案する。
- SHandsは、補完的な視点から同期された5台のRGBカメラで撮影され、52人の参加者(専門家と研修生)を含み、15のジェスチャープリミティブに対するフレーム単位の注釈を提供する。
- データセットには、専門家が検証した研修生エラーの8種類からなる分類体系が組み込まれており、単に正しいパフォーマンスに基づく評価ではなく、ジェスチャー認識と自動エラー検出の両方を可能にする。
- シングルビュー、マルチビュー、およびクロスビューの汎化に関する標準化された評価プロトコルを定義し、複数の深層学習アプローチに対するベンチマークを行って基準(ベースライン)を確立する。
- データセットは公開されており、臨床的にキュレーションされた知識に基づく外科教育のための、頑健でスケーラブルなコンピュータビジョン・システム開発を加速する。
