HazardArena:視覚言語行動モデルにおけるセマンティック安全性の評価
arXiv cs.RO / 2026/4/15
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- Vision-Language-Action(VLA)モデルは、行動を正しく実行できていても、評価時に行動ポリシーが視覚・言語のセマンティクスと厳密に結び付いていないため、危険な結果を生成することがあり得る。
- 本論文では、セマンティックなリスクを切り分けるために、対応する「安全/危険のツイン」シナリオから構築した新しいベンチマーク HazardArena を提案する。これには2,000点以上のアセット、リスクに敏感な40のタスク、ロボット工学の安全基準に整合した7つのリスクカテゴリが含まれる。
- 実験の結果、セーフなシナリオのみで学習したモデルは、セマンティックに対応する危険なバリアントでテストすると頻繁に失敗し、体系的なセマンティック安全性の脆弱性が明らかになった。
- 著者らは、再学習なしでこの問題に対処するために、セマンティック属性または視覚言語のジャッジを用いて実行を制約する、学習不要(training-free)の Safety Option Layer を提案する。これにより、安全でない行動を抑制でき、タスク性能への影響は最小限に抑えられる。
- 本研究は、VLAが現実世界への展開に向けてスケールしていくにあたり、行動成功率を測るだけでなく、セマンティックな安全性を評価し強制する方法を見直す必要があると主張する。



