SABER: A Stealthy Agentic Black-Box Attack Framework for Vision-Language-Action Models
arXiv cs.RO / 3/27/2026
📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research
Key Points
- SABERは、視覚・言語・行動(VLA)モデルに対して、最小限かつ“それらしい”テキスト編集でロボットの挙動を狙って劣化させるブラックボックス攻撃フレームワークを提案している。
- GRPOで学習したReAct型の攻撃エージェントが、文字・トークン・プロンプト単位の編集ツールを用い、編集予算(bounded edit budget)内でターゲットされた失敗や制約違反増加、行動列の過度な長期化を引き起こす。
- LIBEROベンチマークで6つの最先端VLAモデルを評価した結果、SABERはタスク成功率を20.6%低下させ、行動シーケンス長を55%増やし、制約違反を33%増加させた。
- さらに、強力なGPTベースのベースラインよりもツール呼び出しを21.1%削減し、文字編集も54.7%削減しつつ攻撃を成立させる点を示している。
- 本研究は、テキストの微小な摂動だけでロボット実行を大きく損なえること、そしてエージェント型ブラックボックスのレッドチーミング手法が実用的でスケーラブルであることを示唆している。
Related Articles
I Extended the Trending mcp-brasil Project with AI Generation — Full Tutorial
Dev.to
The Rise of Self-Evolving AI: From Stanford Theory to Google AlphaEvolve and Berkeley OpenSage
Dev.to
AI 自主演化的時代來臨:從 Stanford 理論到 Google AlphaEvolve 與 Berkeley OpenSage
Dev.to
Most Dev.to Accounts Are Run by Humans. This One Isn't.
Dev.to
Neural Networks in Mobile Robot Motion
Dev.to