広告

Rainbow-DemoRL:デモンストレーション拡張強化学習における改善の組み合わせ

arXiv cs.RO / 2026/3/31

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、直接的な遷移再利用、オフライン事前学習、参照アクション/価値アプローチなど、オフラインのデモンストレーションを活用する複数の方法を比較しながら、デモンストレーション拡張型のオンライン強化学習を研究する。
  • 既存のデモンストレーション拡張RL手法に関する分類法(タクソノミー)を提案し、それぞれがオンラインのサンプル効率に与える個別の寄与を測定するための幅広い実験を実施する。
  • 観察結果として、オフラインデータを直接再利用し、振る舞いクローニングによる初期化を用いることは、より複雑なオフラインRLの事前学習パイプラインよりも、オンラインのサンプル効率が確実に良いことが示される。
  • また、これらの戦略を効果的に組み合わせられるかどうかを評価し、サンプル効率の高いオンラインRLに対して累積的な利益をもたらすハイブリッドな組み合わせを特定する。

Abstract

実データとして収集されたデモンストレーションを活用することで、オンライン強化学習(RL)のサンプル効率を改善するためのいくつかのアプローチが提案されている。実データは、そのまま遷移として用いてRLの目的関数を最適化することもできるし、あるいはまず実データからオフラインの方策・価値関数を学習し、それをオンラインの微調整に用いる、または参照となる行動を提供するために用いることもできる。これらの戦略はいずれも説得力のある結果を示しているが、サンプル効率に最も大きな影響を与えるのはどの方法なのか、これらのアプローチを組み合わせることは可能なのか、さらに累積的な利点があるのかは不明である。そこで本研究では、既存のデモンストレーション拡張RLアプローチを3つのカテゴリに分類し、それらの強み・弱み・組み合わせについて大規模な実証研究を行うことで、各戦略の寄与を切り分け、サンプル効率の高いオンラインRLに対して有効なハイブリッドな組み合わせを特定する。分析の結果、オフラインデータを直接再利用し、行動模倣(behavior cloning)で初期化することは、オンラインのサンプル効率を改善するうえで、より複雑なオフラインRLの事前学習手法よりも一貫して優れていることが明らかになった。

広告