MolmoAct2:実環境展開に向けたアクション推論モデル
arXiv cs.RO / 2026/5/5
📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsIndustry & Market MovesModels & Research
要点
- MolmoAct2は、ロボット向けの「Vision-Language-Action(VLA)」を現実環境で使える水準に近づけることを目的にした完全オープンのアクション推論モデルです。
- VLAの課題として、クローズド性、推論に高価な計算基盤が必要な点、推論補助・グラウンディングに伴う過大な遅延、再学習後の成功率不足などを挙げ、それらに対処する形で前身から5つの軸で改良しています。
- 新たにMolmoER(空間・身体性推論に特化したVLMバックボーン)を提案し、3.3Mサンプル規模のデータで「specialize-then-rehearse」手法により訓練したほか、低〜中コスト基盤向けの3種のデータセット(最大規模級のオープン両腕データ含む)を公開します。
- OpenFASTとして、5種類の身体(embodiment)にまたがる数百万トラジェクト上で訓練した、オープンウェイト/オープンデータのアクショントークナイザを提供し、連続アクションの専門家(flow-matching)を離散トークンVLMへ接続する設計(per-layer KV-cache conditioning)を導入しています。
- さらに、変化した領域のみ深さトークンを再推論することで遅延を抑えるMolmoThinkを提案し、7つのシミュレーションおよび実環境ベンチマークで既存の強力ベースラインを上回ると報告し、モデル重み・学習コード・学習データを公開しています。




