LightSplat: Fast and Memory-Efficient Open-Vocabulary 3D Scene Understanding in Five Seconds

arXiv cs.CV / 3/26/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • LightSplatは、自然言語で未知の物体をセグメントするオープンボキャブラリ3Dシーン理解を「学習なし・軽量」かつ高速に行う手法として提案されています。
  • 多視点画像から3D表現へコンパクトな2バイトのセマンティック・インデックスを埋め込み、密な特徴割り当てや反復的な特徴最適化を避けることで速度とメモリ効率を大幅に改善します。
  • セマンティックの一貫性を保ちつつ、3D上で幾何学的かつセマンティックに関連するマスクを単一ステップのクラスタリングで結び、推論も効率化しています。
  • LERF-OVS、ScanNet、DL3DV-OVSで評価し、最大50〜400倍の速度向上と、メモリ64分の1の削減を達成しつつSOTA性能を示しています。

Abstract

Open-vocabulary 3D scene understanding enables users to segment novel objects in complex 3D environments through natural language. However, existing approaches remain slow, memory-intensive, and overly complex due to iterative optimization and dense per-Gaussian feature assignments. To address this, we propose LightSplat, a fast and memory-efficient training-free framework that injects compact 2-byte semantic indices into 3D representations from multi-view images. By assigning semantic indices only to salient regions and managing them with a lightweight index-feature mapping, LightSplat eliminates costly feature optimization and storage overhead. We further ensure semantic consistency and efficient inference via single-step clustering that links geometrically and semantically related masks in 3D. We evaluate our method on LERF-OVS, ScanNet, and DL3DV-OVS across complex indoor-outdoor scenes. As a result, LightSplat achieves state-of-the-art performance with up to 50-400x speedup and 64x lower memory, enabling scalable language-driven 3D understanding. For more details, visit our project page https://vision3d-lab.github.io/lightsplat/.