敵対的ラベル不変グラフデータ拡張による分布外一般化

arXiv stat.ML / 2026/4/10

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、入力分布が環境ごとに変化する一方で、基となる概念分布は不変である「共変量シフト」における分布外(OoD)一般化を扱う。
  • 学習環境に対して敵対的な探索を行うことで、敵対的なラベル不変データ拡張を用い、in-distribution解へと崩壊することを避けるための手法 RIA(Adversarial training による不変性のための正則化)を提案する。
  • 本手法は、制約付き最適化問題として表現できる多くの既存の OoD 共変量シフト手法と互換性を持つよう設計されている。
  • 著者らは、得られた目的関数を最適化するための「交互の勾配降下–勾配上昇」アルゴリズムを開発し、合成および自然のシフトの両方を用いた OoD グラフ分類タスクで評価を行う。
  • 実験結果では、RIA がベースラインの OoD 手法に比べて高い精度を達成したと報告されており、分布シフト下でのグラフに基づく表現学習の頑健性が向上していることを示唆する。

Abstract

分布外(OoD)一般化は、表現学習が分布のシフトに遭遇したときに起こります。これは、学習データとテストデータが異なる環境から得られる場合に、実務上しばしば発生します。共変量シフトは、分布シフトの一種であり、入力データのみにおいて起こる一方で、概念の分布は不変のままです。本論文では、共変量シフト下でのOoD一般化のための新しい手法であるRIA ― 対向的学習による不変性のための正則化(Regularization for Invariance with Adversarial training)を提案します。これは、Q-learning との類推に動機づけられており、学習データの環境に対して対向的な探索を実行します。これらの新しい環境は、識別器が分布内で学習された学習者へと崩壊(collapse)することを防ぐ、ラベル不変な敵対的データ拡張によって誘導されます。本手法は、制約付き最適化問題として定式化できる、多くの既存の共変量シフト向けOoD一般化手法と組み合わせ可能です。本論文では、問題を解くための交互勾配降下・上昇アルゴリズムを開発し、さまざまな合成および自然の分布シフトに対するOoDグラフ分類について広範な実験を行います。その結果、提案手法がOoDのベースラインと比べて高い精度を達成できることを示します。