AnyUser: スケッチされたユーザ意図を家庭用ロボットへ翻訳する
arXiv cs.RO / 2026/4/7
📰 ニュースSignals & Early TrendsModels & Research
要点
- AnyUserは、カメラ画像上の自由形式スケッチ(必要に応じて言語も併用)を、家庭内タスクを実行可能な行動へ変換する統一的なマルチモーダル・ロボット指示システムとして提案されます。
- 本手法は、空間的・意味的なプリミティブ、スケッチ/視覚/言語入力のためのマルチモーダル融合、そして階層型ポリシーを用いることで、事前の地図や事前学習モデルに依存せずに頑健な行動系列を生成します。
- 評価では、大規模データセットに基づく定量ベンチマークにより、さまざまなシミュレーション家庭シーンにおいてスケッチベースの指示を正確に解釈できるかを検証します。
- 実環境でのテストでは、2つのロボットプラットフォーム(固定型の7自由度支援用アーム:KUKA LBR iiwa、デュアルアームのモバイルマニピュレータ:Realman RMC-AIDAL)で、特定箇所の拭き取りやエリア清掃といったタスクに対して、確実なグラウンディングと実行が示されます。
- 高齢者や技術リテラシーが低い人を含む多様な属性のユーザスタディでは、ユーザビリティとタスク指定の効率が向上し、完了率(85.7%–96.4%)が高く、ユーザ満足度も高いことが示されます。




