Robust Adversarial Policy Optimization Under Dynamics Uncertainty

arXiv cs.LG / 4/14/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • 強化学習(RL)において、学習時と異なるダイナミクス下で政策が失敗する問題に対し、既存のドメインランダム化や従来の対抗的RLの限界(代理アドバーサリ依存による盲点)を指摘しています。
  • 提案手法RAPOでは、頑健性(worst-case)と性能(performance)のトレードオフを直接扱うデュアル定式化により、安定かつ効率的な最悪ケースロールアウトを実現し、その際のダイバージェンス境界も制御します。
  • ロールアウトの頑健化は「軌道レベル」で行い、デュアルの温度パラメータをアドバーサリアルネットで近似して“現在の状況に対する最悪”を探索します。
  • ダイナミクスの不確実性に対しては「モデルレベル」で、ダイナミクス・アンサンブルに対するボルツマン再重み付けで、現在の政策にとってより逆境的な環境を優先的にサンプリングすることでカバレッジを政策依存に調整します。
  • 実験では、頑健RLベースラインよりRAPOが不確実性への耐性と分布外ダイナミクスへの汎化性能を改善しつつ、デュアルの扱いやすさ(tractability)を維持すると主張しています。

Abstract

Reinforcement learning (RL) policies often fail under dynamics that differ from training, a gap not fully addressed by domain randomization or existing adversarial RL methods. Distributionally robust RL provides a formal remedy but still relies on surrogate adversaries to approximate intractable primal problems, leaving blind spots that potentially cause instability and over-conservatism. We propose a dual formulation that directly exposes the robustness-performance trade-off. At the trajectory level, a temperature parameter from the dual problem is approximated with an adversarial network, yielding efficient and stable worst-case rollouts within a divergence bound. At the model level, we employ Boltzmann reweighting over dynamics ensembles, focusing on more adverse environments to the current policy rather than uniform sampling. The two components act independently and complement each other: trajectory-level steering ensures robust rollouts, while model-level sampling provides policy-sensitive coverage of adverse dynamics. The resulting framework, robust adversarial policy optimization (RAPO) outperforms robust RL baselines, improving resilience to uncertainty and generalization to out-of-distribution dynamics while maintaining dual tractability.