プロンプトから物理アクションへ:LLMが仲介するロボット制御システムに対する構造化バックドア攻撃
arXiv cs.RO / 2026/4/7
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、LLMのファインチューニング供給網に仕込まれたバックドアを、LLMが仲介するロボット制御システムで悪意ある振る舞いを引き起こすためにどのように利用できるかを調査し、自然言語プロンプトからROS2の実行可能アクションへのマッピングを行う。
- 構造化JSONコマンド生成段階に仕込まれたバックドアは、自然言語による推論段階を狙ったものよりも信頼性が高く、物理的な制御出力への転移がより強いことを見出す。
- シミュレーションおよび現実世界の実験を通じて、バックドアが仕込まれたLoRAベースのモデルは、クリーン性能の精度を高い水準(93%超)で維持しつつ、平均攻撃成功率(Attack Success Rate)が83%に達し、さらに遅延は1秒未満であると報告されており、有効性とステルス性の両立を示している。
- 著者らは、セマンティックな整合性をセカンドのLLMで検証するエージェント的な防御策を提案しており、これによりASRは20%まで低下するが、エンドツーエンド遅延は8〜9秒へ増加する。リアルタイムロボットにおけるセキュリティと応答性のトレードオフが強調される。
- 全体として、本研究は、身体性/ロボティクス向けLLM制御パイプラインに固有の構造的脆弱性を示し、プロンプトが構造化コマンドへ変換される仕組みに合わせた、ロボット対応の防御策を求めている。




