Dissecting Model Failures in Abdominal Aortic Aneurysm Segmentation through Explainability-Driven Analysis

arXiv cs.AI / 3/27/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • 腹部大動脈瘤(AAA)のCT画像セグメンテーションでは、モデルが無関係な内部構造に注目したり、低コントラストで薄いターゲットに焦点が当たらないことが失敗要因になると指摘しています。
  • 提案手法は、最終エンコーダブロックから密なアトリビューションに基づく「XAI field」を生成し、予測確率の質量をこの注目領域へ整合させることで出力と注意の一致を促します。
  • さらにXAI fieldを軽量なリファインメント経路と推論時のconfidence prior(logitsを調整)に入力し、注目すべき微細構造を保持しつつ distractor を抑制するとしています。
  • 失敗しやすいシナリオを含む臨床的に検証された難例で、ベースのSAM構成と比べて大きな改善が得られたと報告しています。
  • 結果から、XAIガイダンスによりエンコーダの焦点を明示的に最適化することが、複雑症例での信頼性あるセグメンテーションに有効な原理になり得ると結論づけています。

Abstract

Computed tomography image segmentation of complex abdominal aortic aneurysms (AAA) often fails because the models assign internal focus to irrelevant structures or do not focus on thin, low-contrast targets. Where the model looks is the primary training signal, and thus we propose an Explainable AI (XAI) guided encoder shaping framework. Our method computes a dense, attribution-based encoder focus map ("XAI field") from the final encoder block and uses it in two complementary ways: (i) we align the predicted probability mass to the XAI field to promote agreement between focus and output; and (ii) we route the field into a lightweight refinement pathway and a confidence prior that modulates logits at inference, suppressing distractors while preserving subtle structures. The objective terms serve only as control signals; the contribution is the integration of attribution guidance into representation and decoding. We evaluate clinically validated challenging cases curated for failure-prone scenarios. Compared to a base SAM setup, our implementation yields substantial improvements. The observed gains suggest that explicitly optimizing encoder focus via XAI guidance is a practical and effective principle for reliable segmentation in complex scenarios.
広告