要旨: グラフニューラルネットワーク(GNN)のスケーラビリティは、依然として大きな課題です。これに対処するために、粗視化(coarsening)、凝縮(condensation)、計算木(computation trees)といった手法が用いられ、小さなグラフで学習することで計算を高速化します。それにもかかわらず、従来の研究では推論フェーズにおける計算コストについて、十分に対処できていません。本論文では、グラフ粗視化を用いて推論フェーズにおける計算負担を軽減し、GNNのスケーラビリティを改善するための新しいアプローチを提示します。私たちは2つの異なる手法――Extra Nodes と Cluster Nodes――を示します。本研究は、グラフ分類およびグラフ回帰を含む、グラフレベルのタスクに対するグラフ粗視化の適用を拡張します。複数のベンチマークデータセットに対して広範な実験を行い、提案手法の性能を評価します。その結果、提案手法は従来手法と比較して、単一ノードの推論時間において桁違いの改善を達成することが示されました。さらに、ノード分類およびグラフ分類・回帰タスクにおけるメモリ消費を大幅に削減し、従来手法が現実的でない低リソースデバイス上で、効率的な学習と推論を可能にします。特に、これらの計算上の利点は、ベースラインモデルに対して競争力のある性能を維持しつつ達成されています。
FIT-GNN: 記憶領域に“FIT”するGNNのための、推論時間をより高速化するCoarsening
arXiv stat.ML / 2026/4/13
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、グラフの粗視化や関連手法がGNNの学習に有効である一方で、先行研究ではGNNの推論時における計算コストおよびメモリコストを十分に削減できていないと主張する。
- 推論時にグラフ粗視化を適用することで計算負荷を軽減するFIT-GNNを提案し、2つのバリアントとしてExtra NodesおよびCluster Nodesを提示する。
- FIT-GNNはグラフ全体のタスクを対象とし、ノード単位のワークロードだけでなく、グラフ分類およびグラフ回帰に対する結果を示す。
- 複数のベンチマークデータセットでの実験により、従来手法と比べて単一ノード推論時間が桁違いに高速化されることを示す。
- このアプローチはメモリ使用量も大幅に削減し、基準手法と比べて大きな性能低下なしに、低リソースのデバイス上で効率的な学習と推論を可能にする。




