D-GATNet:ADHD同定のための動的機能的結合に基づく解釈可能な時間的グラフ注意学習
arXiv cs.LG / 2026/3/30
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、fMRI時系列から得られる動的機能的結合を用いたADHDの自動分類のための、解釈可能な深層学習フレームワークD-GATNetを提案する。
- スライディングウィンドウによるピアソン相関で時間的グラフ系列を構築し、その上で多層グラフ注意ネットワークにより空間的関係を学習し、1D畳み込みに加えて時間的注意を用いて時間的ダイナミクスを捉える。
- モデルの解釈可能性は、グラフ注意重み(支配的なROI相互作用)、ROI重要度スコア(影響の大きい脳領域)、および時間的注意(最も情報量の多い結合セグメント)によって担保される。
- ADHD-200データセット(北京大学サイト)において、層化10-fold交差検証に加え5シード・アンサンブルを用いた結果、D-GATNetは85.18% ± 5.64のバランスド精度および0.881のAUCを報告し、従来の最先端手法を上回る。
- 注意に基づく解析では、小脳およびデフォルトモードネットワークの破綻が示され、ADHDの候補となる神経画像バイオマーカーを示唆する。



