REACT3D: Recovering Articulations for Interactive Physical 3D Scenes

arXiv cs.RO / 4/13/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • REACT3Dは、静的な3Dシーンから「シミュレーション可能な対話型(インタラクティブ)複製」を生成するスケーラブルなゼロショット枠組みを提案しています。
  • 静的シーンから開閉可能な物体の検出・セグメンテーションを行い、可動部の候補を抽出します。
  • 可動部について関節タイプや運動パラメータを推定するアーティキュレーション推定と、隠れたジオメトリの補完を組み合わせて対話型オブジェクトの組み立てへ進みます。
  • 幾何の一貫性を保ったままインタラクティブシーンを標準的なシミュレーション/利用形式に統合し、検出・セグメンテーションおよびアーティキュレーションの指標で多様な室内シーンに対してSOTA相当の性能を示しています。

Abstract

Interactive 3D scenes are increasingly vital for embodied intelligence, yet existing datasets remain limited due to the labor-intensive process of annotating part segmentation, kinematic types, and motion trajectories. We present REACT3D, a scalable zero-shot framework that converts static 3D scenes into simulation-ready interactive replicas with consistent geometry, enabling direct use in diverse downstream tasks. Our contributions include: (i) openable-object detection and segmentation to extract candidate movable parts from static scenes, (ii) articulation estimation that infers joint types and motion parameters, (iii) hidden-geometry completion followed by interactive object assembly, and (iv) interactive scene integration in widely supported formats to ensure compatibility with standard simulation platforms. We achieve state-of-the-art performance on detection/segmentation and articulation metrics across diverse indoor scenes, demonstrating the effectiveness of our framework and providing a practical foundation for scalable interactive scene generation, thereby lowering the barrier to large-scale research on articulated scene understanding. Our project page is https://react3d.github.io/