広告

GNNにおけるオーバースクワッシングを緩和するためのクロス注意型コヒーシブ部分グラフ埋め込み

arXiv cs.LG / 2026/3/31

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、グラフニューラルネットワーク(GNN)におけるオーバースクワッシングを扱う。オーバースクワッシングとは、限られたメッセージパッシング経路を通じて長距離の情報が過度に圧縮され、その結果としてグローバルな文脈が歪む現象である。
  • 長距離の有用な構造を強調しつつ、ノイズや無関係な接続をフィルタリングするために、クロス注意型コヒーシブ部分グラフ表現によってノード埋め込みを拡充する新しい学習フレームワークを提案する。
  • ネットワークのボトルネック化されたチャネルに過剰な負荷をかけることなく、重要なグローバル文脈を保持し、それによりオーバースクワッシングを直接的に緩和することを目指す。
  • 複数のベンチマークデータセットでの実験により、標準的なベースライン手法と比較してノード分類精度が一貫して改善することが示される。

Abstract

グラフニューラルネットワーク(GNN)は、さまざまな実世界の分野において強力な性能を示してきました。それにもかかわらず、オーバースクワッシング(oversquashing)という問題に悩まされています。これは、限られたメッセージパッシング経路を通じて情報が圧縮されることで、長距離の情報が歪められてしまう現象です。このボトルネックにより、重要な大域的文脈を捉える能力が制限され、特にグラフの密で異種的(heterophilic)な領域において性能が低下します。そこで本研究では、この問題に対処するために、過剰な長距離依存による影響を緩和するための、相互注意的な結束的部分グラフ表現を通じてノード埋め込みを強化する、新規のグラフ学習フレームワークを提案します。このフレームワークは、長距離情報において結束的な構造を強調することでノード表現を改善しつつ、ノイズの多い、あるいは無関係な接続を取り除きます。これにより、狭いボトルネックのチャネルに過負荷をかけることなく重要な大域的文脈を保持でき、オーバースクワッシングのさらなる緩和につながります。複数のベンチマークデータセットに対する大規模な実験の結果、提案モデルは標準的なベースライン手法に比べて分類精度が一貫して向上することを示しました。

広告