視覚ガイド付きグラフ着色を用いた視覚的再配置タスクの離散抽象化の学習

arXiv cs.RO / 2026/3/23

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、視覚データから離散的でグラフ構造を持つ抽象化を学習し、再配置タスクにおけるハイレベルな計画を支援する方法を提案する。
  • 再配置問題の二部構造を活用し、構造的制約とアテンションに導かれた視覚距離を組み合わせて抽象化を誘導する。
  • この手法は視覚だけから抽象化を自動的に発見できるようにし、2つのタスクのシミュレーションで既存手法より計画性能が向上することを示している。
  • 本研究は抽象化の発見を自動化し、ロボティクスにおける計画のスケーラビリティを向上させ、手作業で設計された表現への依存を減らすことを目指す。

概要: データから直接抽象を学ぶことは、ロボティクスにおける核心的な課題である。
人間は自然に抽象的なレベルで操作し、高レベルのサブゴールを推論しつつ、実行を低レベルの運動技能に委ねる――その能力は、複雑な環境での効率的な問題解決を可能にする。
ロボティクスでは、抽象化と階層的推論は長年計画立案の中心であったが、通常は手作業で設計され、多大な人手を要し、スケーラビリティを制限している。
視覚データから有用な抽象を自動的に発見することは、計画フレームワークをよりスケーラブルにし、現実世界のロボット領域への適用性を高める。
本研究では、状態が生の画像で表現される再配置タスクに焦点を当て、構造的制約と注意誘導型視覚距離を組み合わせることによって、離散的でグラフ構造の抽象化を誘発する手法を提案する。
私たちのアプローチは、再配置問題に固有の二部構造を活用し、構造的制約と視覚埋め込みを統一的なフレームワークに統合する。
これにより、視覚情報だけから抽象を自律的に発見することが可能となり、それが後に高レベルの計画を支援できる。
本手法をシミュレーション内の2つの再配置タスクで評価し、それが一貫して意味のある抽象を特定して効果的な計画を促進し、既存のアプローチを上回ることを示す。
返却形式: {"translated": "翻訳されたHTML"}