概要: 正確な手術フェーズ認識は、手術手順のワークフローを解析し、術中の意思決定を支援し、さらに手術教育およびパフォーマンス評価におけるデータ駆動型の改善を可能にするために不可欠です。本研究では、下垂体腫瘍手術(PTS)動画におけるフェーズ認識のための包括的な枠組みを提示します。そこでは、自己教師あり表現学習、頑健な時間的モデリング、そしてスケーラブルなデータ注釈戦略を組み合わせます。提案手法は、保持したテストセットで90\%の精度を達成し、従来の最先端手法を上回るとともに、さまざまな手術症例に対して強い汎化性能を示します。
本研究の中核的な貢献は、外科医が手術動画をアップロードし、自動化されたフェーズ解析を受け取り、成長していくデータセットに貢献できる協調型のオンラインプラットフォームの統合にあります。このプラットフォームは、大規模なデータ収集を促進するだけでなく、知識共有と継続的なモデル改善をも後押しします。ラベル付きデータが限られているという課題に対処するために、我々は自己教師ありの枠組みを用いて251本のラベルなしPTS動画でResNet-50モデルを事前学習し、高品質な特徴表現の抽出を可能にします。微調整は、クラス不均衡および手順の多様性に対処するために、焦点損失、段階的な層の解凍、そして動的サンプリングを組み込んだ修正トレーニング手法を用いて、81件の手術(ラベル付きデータセット)で実施します。
SurgPhase:インタラクティブなWebプラットフォームによる下垂体腫瘍手術フェーズの時間効率的な認識
arXiv cs.CV / 2026/3/27
📰 ニュースIdeas & Deep AnalysisTools & Practical UsageModels & Research
要点
- 本研究では、自己教師あり表現学習、頑健な時間的モデリング、スケーラブルなアノテーション手法を用いた、時間効率の高い下垂体腫瘍手術(PTS)フェーズ認識の枠組みを提案する。
広告
![[Boost]](/_next/image?url=https%3A%2F%2Fmedia2.dev.to%2Fdynamic%2Fimage%2Fwidth%3D800%252Cheight%3D%252Cfit%3Dscale-down%252Cgravity%3Dauto%252Cformat%3Dauto%2Fhttps%253A%252F%252Fdev-to-uploads.s3.amazonaws.com%252Fuploads%252Fuser%252Fprofile_image%252F3618325%252F470cf6d0-e54c-4ddf-8d83-e3db9f829f2b.jpg&w=3840&q=75)



