要旨: デモンストレーションから学習することは、AIモデルを訓練するための人気のあるアプローチです。しかし、そのデモンストレーションに対する敵対的攻撃への脆弱性は、十分に調査されていません。私たちは、Vanilla Behavior Cloning(Vanilla BC)、LSTM-GMM、暗黙的行動クローニング(Implicit Behavior Cloning: IBC)、拡散ポリシー(Diffusion Policy: DP)、ベクトル量子化行動トランスフォーマ(Vector-Quantized Behavior Transformer: VQ-BET)を含む、従来の模倣学習アルゴリズムと近年提案された模倣学習アルゴリズムの幅広い範囲にわたって、敵対的攻撃を体系的に調査した初めての研究を提示します。私たちは、これらの手法が、ホワイトボックス、グレーボックス、ブラックボックスの敵対的摂動の両方に対してどの程度脆弱であるかを調べます。実験の結果、既存のほとんどの手法はこれらの攻撃に対して非常に脆弱であることが明らかになりました。これには、アルゴリズム間で転送されるブラックボックスの転移攻撃も含まれます。私たちの知る限り、私たちは異なる人気の模倣学習アルゴリズムの脆弱性を、ホワイトボックス攻撃とブラックボックス攻撃の両方について調査し比較した最初の研究です。今回の発見は、現代の模倣学習アルゴリズムの脆弱性を明らかにし、そのような制限に対処するための今後の研究への道筋を示しています。動画とコードは https://sites.google.com/view/uap-attacks-on-bc で利用可能です。
学習済みポリシーはどれほど脆弱か?—現代の行動クローニングに対するユニバーサル・敵対的摂動攻撃
arXiv cs.RO / 2026/4/27
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、Vanilla BC、IBC、Diffusion Policy、VQ-BETなど複数の現代的な模倣学習/行動クローニング手法に対して、ユニバーサル敵対的摂動攻撃を体系的に調べた最初の研究として位置づけられています。
- ホワイトボックス、グレーボックス、ブラックボックスという複数の脅威モデルの下で脆弱性を評価し、敵対的摂動が学習済みポリシーの性能を確実に損なえることを示しています。
- 実験では、既存手法の多くが高い脆弱性を持つことが分かり、さらに“ブラックボックス転移攻撃”でも、あるアルゴリズムで作った敵対例が別の手法に対しても成功することが示されています。
- ホワイトボックスとブラックボックスの両条件について、手法間で比較を行い、動画とコードへのリンクも提供されています。
- 総じて、この研究は現代の模倣学習における重要なセキュリティ上の弱点を明らかにし、それを抑える今後の研究の必要性を強調しています。




