EquiformerV3:効率的で表現力豊か、かつ一般的なSE(3)同変グラフ注意トランスフォーマーのスケーリング

arXiv cs.LG / 2026/4/13

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、3D原子論的モデリングのための効率性・表現力・一般性を向上させることを目的とした、SE(3)同変グラフ注意トランスフォーマーの第3世代であるEquiformerV3を提案する。
  • 著者らは、EquiformerV2に対してSE(3)同変性の性質を維持したまま、1.75倍の高速化をもたらす実装上の最適化を報告している。
  • 著者らはEquiformerV2に対し、同変な統合層正規化(equivariant merged layer normalization)、調整済みのフィードフォワード・ハイパーパラメータ、滑らかな半径カットオフを用いた注意機構など、アーキテクチャ上の改良を追加している。
  • 多体相互作用をより適切に捉えるために、EquiformerV3ではSwiGLU–S²活性化を用いる。これは、厳密な同変性を維持しつつ理論的な表現力を高め、S²グリッドサンプリングの複雑さを低減するよう設計されている。
  • SwiGLU–S²活性化と滑らかカットオフの注意機構により、このモデルは滑らかに変化するポテンシャルエネルギー曲面を正確に学習し、エネルギー保存を伴うシミュレーションや高次のPES(ポテンシャルエネルギー面)導関数を支援することが可能となる。DeNS補助タスクを用いて、OC20、OMat24、Matbench Discoveryの分野で最先端の結果を達成している。

要旨: SE(3)-同変グラフニューラルネットワークが3D原子論的モデリングの中核的手法として成熟するにつれ、その効率性、表現力、物理的整合性を向上させることは、大規模アプリケーションにおける中心的課題となっています。本研究では、3つの側面すべて――効率性、表現力、汎用性――を推し進めるために設計された、SE(3)-同変グラフ注意Transformerの第3世代であるEquiformerV3を導入します。EquiformerV2に基づき、以下の3つの主要な進展があります。第一に、ソフトウェア実装を最適化し、1.75\timesの高速化を達成しました。第二に、同変マージド層正規化、フィードフォワードネットワークの改善されたハイパーパラメータ、滑らかな半径カットオフを伴う注意機構など、EquiformerV2に対して単純かつ効果的な修正を導入しました。第三に、より良い理論的表現力のために多体相互作用を取り込むとともに、S^2グリッドのサンプリングに伴う複雑さを抑えつつ厳密な同変性を保持する、SwiGLU-S^2活性化関数を提案します。SwiGLU-S^2活性化関数とスムーズカットオフ付き注意機構は、滑らかに変化するポテンシャルエネルギー曲面(PES)を正確にモデリングできることを可能にし、EquiformerV3を、エネルギー保存型のシミュレーションや、PESのより高次の導関数を必要とするタスクへと拡張します。これらの改善により、不平衡構造のデノイズ(DeNS)という補助タスクで学習したEquiformerV3は、OC20、OMat24、およびMatbench Discoveryにおいて最先端の結果を達成します。