Abstract
分布外(OoD)一般化は、表現学習が分布のシフトに遭遇したときに起こります。これは、学習データとテストデータが異なる環境から得られる場合に、実務上しばしば発生します。共変量シフトは、分布シフトの一種であり、入力データのみにおいて起こる一方で、概念の分布は不変のままです。本論文では、共変量シフト下でのOoD一般化のための新しい手法であるRIA ― 対向的学習による不変性のための正則化(Regularization for Invariance with Adversarial training)を提案します。これは、Q-learning との類推に動機づけられており、学習データの環境に対して対向的な探索を実行します。これらの新しい環境は、識別器が分布内で学習された学習者へと崩壊(collapse)することを防ぐ、ラベル不変な敵対的データ拡張によって誘導されます。本手法は、制約付き最適化問題として定式化できる、多くの既存の共変量シフト向けOoD一般化手法と組み合わせ可能です。本論文では、問題を解くための交互勾配降下・上昇アルゴリズムを開発し、さまざまな合成および自然の分布シフトに対するOoDグラフ分類について広範な実験を行います。その結果、提案手法がOoDのベースラインと比べて高い精度を達成できることを示します。