「そんなことはしないで!」:大規模言語モデルに基づく制約生成による身体性のあるシステムの誘導

arXiv cs.RO / 2026/4/10

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、自然言語による制約がプランナで形式化しにくい身体性のあるロボットナビゲーションに向けて、LLMベースの制約生成フレームワークであるSTPRを提案する。
  • STPRは、特に「〜してはいけない」といった指示を、実行可能なPython関数へと変換する。これにより、LLMのコーディング能力を活用して複雑な推論ステップを削減し、解釈可能性を高める。
  • 著者らは、LLMが生成した関数が複雑な数学的制約を正確に表現でき、点群表現に適用される従来の探索アルゴリズムとも互換性があることを報告している。
  • シミュレータのGazebo環境での実験では、STPRは複数の制約すべてへの完全な遵守を達成しつつ、実行時間を短く維持できることが示されている。
  • このアプローチはより小規模なコードLLMでも機能するため、推論コストの低下と、より幅広い導入可能性が示唆される。

Abstract

大規模言語モデル(LLM)の最近の進展により、自然言語から計画問題へ組み込まれる複雑な空間的・数学的・条件付き制約を取り入れたロボットナビゲーションへの関心が高まっている。これらの制約は非形式的でありながら非常に複雑であることがあり、計画アルゴリズムへ渡せる形式的な記述へと変換するのが難しい。本論文では、制約生成フレームワークSTPRを提案する。この枠組みでは、LLMを用いて(「何をしてはいけないか」を指示として表した)制約を、実行可能なPython関数へと翻訳する。STPRはLLMの強力なコーディング能力を活用し、問題記述を言語から構造化され解釈可能なコードへと移すことで、複雑な推論を回避し、潜在的な幻覚(ハルシネーション)も避ける。LLMが生成したこれらの関数が、複雑な数学的制約でさえも正確に記述できることを示し、さらにそれらを従来の探索アルゴリズムを用いた点群表現に適用する。Gazeboのシミュレーション環境における実験では、STPRが複数の制約とシナリオに対して完全な順守を保証しつつ、実行時間が短いことを示す。また、STPRがより小型のコードLLMでも使用できることを検証し、推論コストの低い幅広いコンパクトなモデルへ適用可能であることを示す。