MOMO:身体・発話・グラフィカルにまたがるロボット技能のシームレスな学習と適応のためのフレームワーク

arXiv cs.CL / 2026/4/23

💬 オピニオンDeveloper Stack & InfrastructureModels & Research

要点

  • MOMOは、非専門家でも変化するタスクや環境にロボット技能を柔軟に適応できることを目指し、身体(キネスティックなタッチ)・自然言語・グラフィカルなWeb UIの3つのインタラクション手段で支援します。
  • 同フレームワークは、人の意図をエネルギーに基づいて検出する仕組みと、「ツールベースLLM」方式を統合しており、LLMがコード生成ではなく事前定義された関数を選択・パラメータ化して安全に自然言語による適応を行えるようにします。
  • 運動表現と学習には、技能を符号化するKernelized Movement Primitives(KMPs)と、デモンストレーション記録を支援する確率的Virtual Fixturesを用います。
  • 表面仕上げのために、確率的ガイダンスとエルゴード制御(ergodic control)を組み合わせ、KMPからエルゴード制御へ技能適応を一般化することで、音声コマンドによる仕上げを実現します。
  • 7自由度のトルク制御ロボットでAutomatica 2025の展示会にて検証を行い、産業環境での実用性が示されたと主張しています。