PAINT: Partner-Agnostic Intent-Aware Cooperative Transport with Legged Robots

arXiv cs.RO / 4/15/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • PAINT(Partner-Agnostic Intent-Aware Cooperative Transport)は、レッグドロボットが身体の内的センサ(proprioceptive feedback)から協働相手の意図を推定しながら、安定した移動と協調運搬を実現する階層型学習フレームワークを提案している。
  • 意図理解(高位ポリシー)と地形に頑健な移動(低位のロコモーション基盤)を分離し、外部の力トルクセンサやペイロード追跡を使わずに軽量に運用できる点が特徴だ。
  • 学習ではintent estimatorに基づく高位制御と、teacher-student方式を組み合わせ、複雑環境でも相互作用に伴う信号が捉えにくい課題に対処している。
  • シミュレーションと実機実験で、多様な地形・ペイロード・パートナーに対するコンプライアント(柔軟で追従的な)協調運搬が示されている。
  • decentralizedなマルチロボット運搬や、ロボット形態の違いによる移植性についても、ロコモーション基盤を差し替えることでスケール/転移できることを報告している。

Abstract

Collaborative transport requires robots to infer partner intent through physical interaction while maintaining stable loco-manipulation. This becomes particularly challenging in complex environments, where interaction signals are difficult to capture and model. We present PAINT, a lightweight yet efficient hierarchical learning framework for partner-agonistic intent-aware collaborative legged transport that infers partner intent directly from proprioceptive feedback. PAINT decouples intent understanding from terrain-robust locomotion: A high-level policy infers the partner interaction wrench using an intent estimator and a teacher-student training scheme, while a low-level locomotion backbone ensures robust execution. This enables lightweight deployment without external force-torque sensing or payload tracking. Extensive simulation and real-world experiments demonstrate compliant cooperative transport across diverse terrains, payloads, and partners. Furthermore, we show that PAINT naturally scales to decentralized multi-robot transport and transfers across robot embodiments by swapping the underlying locomotion backbone. Our results suggest that proprioceptive signals in payload-coupled interaction provide a scalable interface for partner-agnostic intent-aware collaborative transport.