要旨: ラベル付きの単一ソースドメインから、学習中にターゲットデータへ一切アクセスせずに、未見のターゲットドメインへ一般化することは、堅牢な機械学習における基本的な課題のままです。私たちは、Single Domain Generalization(SDG)として知られる、あまり研究されていないこの設定に取り組みます。具体的には、タスク学習とドメインモデリングを明示的に切り離すバイレベル最適化フレームワークであるBiSDGを提案します。BiSDGは、ソースデータをラベルを保持する変換によって構築したサロゲート(代理)ドメインにより、分布シフトをシミュレートします。ドメイン固有の文脈を捉えるために、特徴量ごとの線形モジュレーション(feature-wise linear modulation)によって増強特徴を生成する、軽量なモジュレーション信号を出力するドメインプロンプトエンコーダを提案します。学習プロセスはバイレベル最適化問題として定式化されます。内側の目的関数は固定されたプロンプトのもとでタスク性能を最適化し、外側の目的関数はドメインプロンプトエンコーダを更新することで、サロゲートドメイン全体での一般化性能を最大化します。さらに、第2次導関数を用いずに効率的なバイレベル学習を可能にする、実用的な勾配近似手法を発展させます。さまざまなSGDベンチマークに対する大規模な実験により、BiSDGが従来手法を一貫して上回り、SDG設定において新たな最先端性能を達成することを示します。
単一ドメイン汎化のためのバイレベル最適化
arXiv cs.LG / 2026/4/9
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は単一ドメイン汎化(SDG)に取り組み、学習時にターゲットデータを一切用いずに、1つのラベル付きソースドメインから未見のターゲットドメインへと汎化することを目指す。
- タスク学習とドメインモデリングを分離する、バイレベル最適化フレームワーク「BiSDG」を提案し、ドメインプロンプトエンコーダにより特徴のモジュレーション信号を生成する。
- BiSDGは、ソースデータに対するラベル保持変換によってサロゲートドメインを作成し、分布シフトを模擬することで、不変性に向けた学習上の圧力を高める。
- 本手法は、内側ループでプロンプトを固定した状態のもとタスク性能を最適化し、外側ループでドメインプロンプトエンコーダを更新して汎化を改善する、というバイレベル問題として定式化する。
- 複数のSGDベンチマークにおける実験により、従来手法に対する一貫した改善が報告され、SDG設定における新たな最先端(SOTA)結果を主張している。



