離散グラフ生成において表現力豊かなエンコーダは必要か?

arXiv cs.AI / 2026/3/11

Ideas & Deep AnalysisModels & Research

要点

  • 本論文では、トランスフォーマーのような高表現力のニューラルバックボーンの代替として、離散グラフ生成のためのモジュラーなメッセージパッシングフレームワークであるGenGNNを紹介する。
  • GenGNNベースの拡散モデルはTreeおよびPlanarデータセットにおいて90%以上の妥当性を達成し、グラフトランスフォーマーと比較して2-5倍高速な推論速度を実現している。
  • 分子生成においては、GenGNNバックボーンを用いたDiGressが高い99.49%の妥当性を示し、強力な実用性能を示している。
  • 系統的なアブレーション研究により、複雑なグラフ構造における過剰平滑化を軽減するためにGenGNN内の残差接続の重要性が浮き彫りになった。
  • メトリックスペースの視点からのスケーリング解析により、学習された拡散表現の洞察とともに、離散拡散タスクのためのGNNの表現力が評価された。

コンピュータサイエンス > マシンラーニング

arXiv:2603.08825 (cs)
[2026年3月9日 投稿]

題目:離散グラフ生成に表現力の高いエンコーダは必要か?

「離散グラフ生成に表現力の高いエンコーダは必要か?」という題目の論文(Jay Revolinsky とほか2名の著者)をPDFで表示
PDFを表示 HTML(実験的)
要旨:離散グラフ生成は、グラフデータをモデリングするための強力なパラダイムとして登場し、しばしばトランスフォーマーや高次アーキテクチャのような非常に表現力の高いニューラルバックボーンに依存してきた。我々は、GenGNN というグラフ生成のためのモジュール型メッセージパッシングフレームワークを導入することで、この設計選択を再検討する。GenGNN を用いた拡散モデルは、Tree および Planar データセットにおいて、グラフトランスフォーマーの範囲内の性能でありながら、有効性(validity)が 90% 超となり、さらに推論速度は 2〜5倍高速である。分子生成では、GenGNN をバックボーンに用いた DiGress が 99.49% の Validity を達成する。体系的なアブレーション研究により、GenGNN の各コンポーネントがもたらす利点が示され、複雑なグラフ構造におけるオーバースムージングを緩和するためには残差接続が必要であることが示唆される。スケーリング解析を通じて、学習された拡散表現を調べるための、原理に基づくメトリック空間の観点を適用し、離散拡散に対して GNN が表現力の高いニューラルバックボーンになり得るのかを明らかにする。
コメント:
分野: マシンラーニング(cs.LG); 人工知能(cs.AI)
引用方法: arXiv:2603.08825 [cs.LG]
  (またはこの版の場合は arXiv:2603.08825v1 [cs.LG]
  https://doi.org/10.48550/arXiv.2603.08825
詳しく学ぶためにフォーカス
DataCite 経由で付与された arXiv の DOI

投稿履歴

投稿者: Jay Revolinsky [メールを見る]
[v1] 2026年3月9日 月 18:36:06 UTC(14,749 KB)
フルテキストのリンク:

論文へのアクセス:

現在の閲覧コンテキスト:
cs.LG
< prev   |   next >
次の閲覧モードに変更:
BibTeX 引用をエクスポート 読み込み中...

BibTeX 形式の引用

×
提供元:

ブックマーク

BibSonomyロゴ Redditロゴ
参考文献ツール

参考文献および引用ツール

参考文献エクスプローラの切り替え
参考文献エクスプローラ エクスプローラとは?
Connected Papers の切り替え
Connected Papers Connected Papers とは?
elledby="label-for-litmaps"> Litmaps トグル
Litmaps (Litmaps とは?)
scite.ai トグル
コード、データ、メディア

この記事に関連付けられたコード、データ、メディア

alphaXiv トグル
alphaXiv (alphaXiv とは?)
コードへのリンク トグル
CatalyzeX 論文向けコードファインダー (CatalyzeX とは?)
DagsHub トグル
DagsHub (DagsHub とは?)
GotitPub トグル
Gotit.pub (GotitPub とは?)
Huggingface トグル
Hugging Face (Huggingface とは?)
コードへのリンク トグル
Papers with Code (Papers with Code とは?)
ScienceCast トグル
ScienceCast (ScienceCast とは?)
デモ

デモ

Replicate トグル
Replicate (Replicate とは?)
Spaces トグル
Hugging Face Spaces (Spaces とは?)
Spaces トグル
TXYZ.AI (TXYZ.AI とは?)
関連論文

レコメンダーおよび検索ツール

Influence Flower へのリンク
Influence Flower (Influence Flower とは?)
Core レコメンダー トグル
CORE レコメンダー (CORE とは?)
IArxiv レコメンダー トグル
IArxiv レコメンダー (IArxiv とは?)
arXivLabs について

arXivLabs:コミュニティの協力者とともに行う実験的プロジェクト

arXivLabs は、協力者が当サイト上で新しい arXiv の機能を直接開発し、共有できるようにするためのフレームワークです。

arXivLabs に取り組む個人および組織はいずれも、オープン性、コミュニティ、卓越性、ユーザーデータのプライバシーという当社の価値観を受け入れ、これを大切にする姿勢を表明しています。arXiv はこれらの価値観にコミットしており、それらを順守するパートナーとのみ連携します。

arXiv のコミュニティに価値をもたらすプロジェクトのアイデアはありますか? arXivLabs について詳しく知る