多ラベル・ノード分類を見直す:チューニング済みの従来型GNNで十分なのか?

arXiv cs.LG / 2026/5/5

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、多ラベル・ノード分類(MLNC)の近年の改善が、ラベル対応の専用アーキテクチャによるものなのか、それとも十分に最適化されていないベースラインによるものなのかを問い直しています。
  • 著者らは強いベースライン(strong-baseline)方針でMLNCを再評価し、GCN・SSGConv・GCNIIなどの全グラフ型の代表的なGNNバックボーンを慎重に最適化します。
  • 正規化、ドロップアウト、残差接続といった標準的だが効果の大きい学習設計を、これらの古典的モデルに適用します。
  • 5つのベンチマークデータセットで検証したところ、チューニング済みベースラインは4つのデータセットで専用手法を上回り、複数の設定で最先端(SOTA)に到達しました。
  • これらの結果は、従来型GNNの慎重なチューニングがMLNCにおける重要要因である一方、見落とされがちだということを示しており、今後の多ラベル・グラフ学習研究でより厳密な強いベースライン評価が必要だと強調しています。

要旨: 多ラベルノード分類(MLNC)は近年、ノードとラベルの相互作用やラベル間の依存関係を明示的にモデル化する、ますます複雑なラベル対応設計によって取り組まれてきました。しかし、これらの手法の利点が、本当にそれらの専用設計に由来しているのか、それとも単に最適化が不十分なベースラインのせいなのかは、いまだ明確ではありません。本論文では、強いベースラインの観点からMLNCを改めて見直し、注意深く調整した古典的なフルグラフGNNがすでにこのタスクに対する強力な解となり得るかを検証します。GCN、SSGConv、GCNII など、いくつかの代表的なバックボーンを体系的に調査し、正規化、ドロップアウト、残差接続といった標準的かつ効果的な手法でそれらを最適化します。5つの代表的ベンチマークデータセットでの実験により、調整済みの我々のベースラインは4つのデータセットで代表的な専用手法を上回り、複数の設定で最先端の性能を達成することが示されました。これらの結果は、古典的バックボーンを慎重にチューニングすることがMLNCにおいて非常に影響力が大きい要因である一方で、しばしば見過ごされていることを示しており、多ラベルグラフ学習に関する今後の研究では、より厳密な強いベースライン評価の必要性を浮き彫りにしています。