ユニバーサルロボットがAIトレーニングシステム、モデルの学習と実行を支援

ITmedia AI+ / 4/7/2026

📰 NewsDeveloper Stack & InfrastructureIndustry & Market MovesModels & Research

Key Points

  • Universal Robotsは、Scale AIと共同でAIモデルの学習と実行を支援するシステム「UR AI Trainer」をGTC 2026で発表し、2026年内にURロボット由来の大規模産業データセット公開も予定している。
  • UR AI Trainerは「リーダー・フォロワー」構成で作業者の操作を同期記録し、動作・力・画像などのマルチモーダルデータを用いてVision-Language-Action(VLA)モデルの学習に必要なフィードバックループを構築する。
  • ダイレクトトルク制御と力覚フィードバックにより、繊細な接触を伴う作業でも対象物との物理相互作用を正確に記録でき、研究室と工場のギャップ解消を狙う。
  • 「UR AI Accelerator」上でScale AIソフトと統合し、リアルタイム記録から即時再生に加え、NVIDIA Omniverse/Isaac Simによる仮想環境でのデータ取得プロセスも紹介した。
  • Generalist AIとも連携し、ロボット基盤モデルの実環境性能を実証することで、自律的な協調動作や器用な操作能力の実現を目指している。

 Universal Robots(ユニバーサルロボット)は2026年3月16日(現地時間)、米カリフォルニア州で開催されたNVIDIAの年次イベント「GTC 2026」において、Scale AIと共同開発したAI(人工知能)モデルの学習と実行を支援するシステム「UR AI Trainer」を発表した。また、両社はURロボットで収集した大規模な産業用データセットを2026年内に公開する予定だ。

キャプション AIトレーニングシステム「UR AI Trainer」[クリックで拡大] 出所:Universal Robots

 UR AI Trainerは、作業者が「リーダー」ロボットを直接操作し、その動きを「フォロワー」ロボットがリアルタイムで再現する「リーダー、フォロワー構成」を採用。この過程で同期記録された動作、力、画像といったマルチモーダルデータを用い、Vision-Language-Action(VLA)モデルの学習に必要なフィードバックループを構築する。

 従来のAI学習では、研究用ロボットで取得された低品質なデータや、視覚情報のみに依存したフィードバックが課題となっていた。新システムでは、UR独自のダイレクトトルク制御と力覚フィードバックを活用することで、対象物との物理的な相互作用を正確に記録できる。これにより、繊細な接触を伴う作業の再現性が向上し、研究室での検証から工場での実運用までのギャップを解消する。

 システムは「UR AI Accelerator」プラットフォーム上で動作し、Scale AIのソフトウェアと統合。GTC2026の会場では、2台の「UR3e」を操作して2台の「UR7e」を制御し、スマートフォンのパッケージング作業を行うデモを実施。取得したデータはScale AIのプラットフォームにリアルタイムで記録され、即座に再生できる。また、NVIDIAのOmniverseおよびIsaac Simを用いた仮想環境でのデータ取得プロセスも紹介された。

キャプション 双腕のUR3eシステムを操作し、物理挙動を再現したシミュレーションを体験[クリックで拡大] 出所:Universal Robots
キャプション 2台のUR7eがスマートフォンのパッケージング作業を自律的に実行する実演[クリックで拡大] 出所:Universal Robots

 URは、Generalist AIとも連携し、ロボット基盤モデルの実環境における性能を実証した。大規模かつ高品質なトレーニングデータと最新のモデルアーキテクチャを組み合わせることで、自律的な協調動作や器用な操作能力を可能にした。

⇒その他の「協働ロボット」の記事はこちら

関連記事

関連リンク

Copyright © ITmedia, Inc. All Rights Reserved.