スペクトルグラフ縮約はグラフニューラルネットワークにおける表現の幾何を保持する

arXiv cs.LG / 2026/5/5

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、ラプラシアン二次形式の保持にとどまらず、グラフニューラルネットワークにおいてスペクトルグラフ縮約が学習埋め込みの幾何(表現の形)を保つかを検討します。
  • 多項式フィルタ型GNNについて、ε-スペクトル縮約器は多項式グラフフィルタ、複数層の隠れ表現、およびそれらのグラム行列に対してO(ε)規模の摂動しか与えないことを証明します。
  • これらの理論的な上界は、埋め込み空間における二点間距離の二乗、クラス平均、共分散構造といった性質が縮約下でも安定であることを示唆します。
  • さらに、滑らかさと有界性の仮定のもとで、密グラフと縮約グラフでの勾配降下法の重み軌跡の分離が縮約歪みに比例して高々増えることを有限時間の学習安定性として示します。
  • 合成グラフと実データセット(FashionMNIST、Cora、Paul15 など)で、有効抵抗ベースの縮約が予測される摂動の連鎖を実験的に裏付け、グラム行列や学習ダイナミクスの発散が小さいこと、また近傍保存やクラス中心の安定性が強いことを報告します。

要旨: スペクトラルグラフの疎化は、ラプラシアンの二次形式を保ちながらグラフの複雑さを減らすための古典的な手法である。グラフニューラルネットワーク(GNN)においては、疎化はしばしば、予測性能を維持しつつ計算を高速化するために用いられる。本研究では、補完的な表現レベルの問いを検討する:疎化は、学習された埋め込みの幾何(geometry)を保持するのだろうか?

 多項式フィルタGNNに対して、任意の \epsilon-スペクトラル疎化器は、多項式グラフフィルタ、マルチレイヤの隠れ表現、ならびにそれらのグラム行列に対して O(\epsilon) の摂動を誘起することを証明する。これらの保証は、埋め込み空間における二点間距離の二乗、クラス平均、そして共分散構造の安定性を意味する。さらに、有限時間での学習安定性も確立する:滑らかさと有界性の仮定のもとで、密なグラフおよび疎化したグラフ上での勾配降下法は、疎化の歪みに比例して高々成長する分離(separation)を示す重み軌道を生み出す。

 実験的には、有効抵抗(effective-resistance)による疎化が、合成グラフにおいて予測された摂動の連鎖(perturbation chain)を検証し、実データセットにおいて隠れ表現の幾何を保持する。実験では、グラム行列と学習ダイナミクスが、大幅な疎化の下でも発散が小さいことを示し、スペクトラル疎化に対する予測された安定性と整合的である。隠れグラム行列の保持は、近傍の保持およびクラス重心の安定性を FashionMNIST、Cora、Paul15 にわたって強く予測する。これらの結果はあわせて、スペクトラル疎化がグラフ作用素だけでなく、下流でGNN埋め込みを解釈可能性(interpretability)のために用いることを支える表現幾何も保持することを示している。