ビジョン・言語・行動の安全性:脅威、課題、評価、メカニズム
arXiv cs.RO / 2026/4/28
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- Vision-Language-Action(VLA)モデルは身体性を備えた統合基盤として注目されており、物理的に取り返しのつかない結果を生む可能性など、新たな安全課題が発生します。
- VLAでは、視覚・言語・状態(ロボット状態)の複数モーダルにまたがる攻撃面、長期行動でのエラー伝播、リアルタイムの防御レイテンシ制約、データ供給チェーンの脆弱性が重要な論点です。
- 文献がロボティクス学習、敵対的機械学習、AIアライメント、自律システム安全などに分断されているため、本調査は攻撃/防御/評価/デプロイメントの観点で体系化し、学界の全体像を統合的に整理しています。
- 攻撃と防御を「いつ起きるか」(学習時か推論時か、さらに防御も同様に)という時間軸で整理し、データポイズニングやバックドア、敵対的パッチやクロスモーダル擾乱、セマンティック・ジャイルブレイク、フリーズ攻撃などを対象にしています。
- 今後の主要な未解決課題として、身体軌道に対する認証付きロバスト性、現実に実装可能な防御、安全を考慮した学習、統一的なランタイム安全アーキテクチャ、標準化された評価が挙げられます。




