SPD多様体上の層(シーフ)ニューラルネットワーク:二階の幾何学的表現学習
arXiv cs.LG / 2026/4/23
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文はグラフニューラルネットワークの2つの制約として、ユークリッドのベクトル表現に依存しがちな点(必要なときでも行列値の二階幾何が扱えない)と、通常のメッセージパッシングがエッジ間で同一変換を共有してしまう点を挙げています。
- 対応として、対称正定値(SPD)多様体上でネイティブに動作する「最初の」シーフニューラルネットワークを提案し、ユークリッド空間への射影をせずに行列値特徴を伝播させます。
- SPD多様体がライ群構造を持つことを利用して、SPD値のためのシーフ演算子を適切に定義します。
- 理論的に、SPD値のシーフはユークリッドのシーフよりも厳密に表現力が高いことを証明し、ベクトルベースでは表せない全体的な構成(グローバルセクション)を可能にすると示しています。
- 実験では、ランク1の方向入力をフルランクのSPD行列へ変換でき、デュアルストリーム構成により深さ方向の頑健性も得つつ、MoleculeNetベンチマーク7つ中6つで最先端(SOTA)を達成したと報告しています。




