Abstract
グラフニューラルネットワーク(GNN)は従来、構造的なメッセージパッシングに標準のラプラシアン行列または隣接行列に依存してきました。本研究では、従来のラプラシアンを、修正ラプラシアンの逆数から導出した双重確率グラフ行列(Doubly Stochastic graph Matrix; DSM)に置き換えることで、連続的な多ホップ近接性と厳密な局所中心性を自然に符号化します。厳密な行列反転に伴う手に負えない計算量O(n^3)を克服するために、まず切り詰めたネーマン級数を用いてDSMをスケーラブルに近似し、これを提案手法DsmNetの基盤とします。さらに、代数的な切り詰めは本質的に確率質量の漏れを引き起こすため、DsmNet-compensateを導入します。この変種には、切り詰められたテール質量を解析的に自己ループへ再注入する、数学的に厳密な残差質量補償(Residual Mass Compensation)機構が備わっており、行確率性(row-stochasticity)を厳密に回復し、構造的支配性を確実に取り戻します。広範な理論的および実証的分析により、切り離した(デカップルした)アーキテクチャがO(K|E|)時間で効率的に動作し、ディリクレ・エネルギーの減衰を抑えることで過スムージングを効果的に緩和することを示します。同相性(homophilic)のベンチマークで頑健な実験的裏付けも得られました。最後に、異質性(heterophilic)のトポロジーにおけるDSMの理論的な境界を確立し、グラフ・トランスフォーマに対する連続的な構造符号化としての汎用性も実証します。