広告

GSR-GNN:回路グラフ上の深いGNNのための学習加速とメモリ節約フレームワーク

arXiv cs.LG / 2026/3/31

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 全体として、本研究は大規模なEDAワークロードに対して、数百層に及ぶ非常に深いGNNを実用可能にすることを主張している。

Abstract

グラフニューラルネットワーク(GNN)は回路解析に対して強い可能性を示していますが、特に深いモデルでは、GPUメモリと学習コストの制約により、現代の大規模な回路グラフへのスケーリングが限られています。そこで本稿では、回路グラフに対する深いGNNを再検討し、訓練可能な場合に浅いアーキテクチャを大きく上回ることを示します。これにより、効率的でドメイン固有の学習フレームワークの動機付けが得られます。本稿では、Grouped-Sparse-Reversible GNN(GSR-GNN)を提案します。これは、計算およびメモリのオーバーヘッドを抑えながら、数百層までのGNNの学習を可能にします。GSR-GNNは、可逆的な残差モジュールと、タスクに関係する情報を損なうことなくノード埋め込みを圧縮するグループ単位の疎な非線形演算子を統合し、断片化された活性の保存をなくしてデータ移動を削減するための最適化された実行パイプラインを採用します。サンプリングした回路グラフにおいて、GSR-GNNは相関ベースの品質指標における軽微な劣化を伴いつつ、最大で87.2\%のピークメモリ削減と30\timesを超える学習速度向上を達成し、大規模なEDAワークロードに対して深いGNNが実用的であることを示します。

広告