GP-4DGS: Probabilistic 4D Gaussian Splatting from Monocular Video via Variational Gaussian Processes

arXiv cs.CV / 4/6/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • GP-4DGS は、4D Gaussian Splatting に Gaussian Processes を統合し、動的シーンを「決定論的」ではなく確率的に扱うための新しいフレームワークを提案している。
  • GPs のカーネルに基づく確率性を活用することで、動き予測の不確実性推定、観測が欠ける/疎な領域でのモーション推定、観測フレーム外への時間外挿を可能にする。
  • 4DGS の多数の Gaussian プリミティブに対して計算スケールするために、変形場の相関を捉える時空間カーネルと、誘導点を用いた variational Gaussian Processes による推論の工夫を導入している。
  • 実験では再構成品質の向上とともに、動きの曖昧さが高い領域を効果的に特定できる信頼できる不確実性推定が示されている。

Abstract

We present GP-4DGS, a novel framework that integrates Gaussian Processes (GPs) into 4D Gaussian Splatting (4DGS) for principled probabilistic modeling of dynamic scenes. While existing 4DGS methods focus on deterministic reconstruction, they are inherently limited in capturing motion ambiguity and lack mechanisms to assess prediction reliability. By leveraging the kernel-based probabilistic nature of GPs, our approach introduces three key capabilities: (i) uncertainty quantification for motion predictions, (ii) motion estimation for unobserved or sparsely sampled regions, and (iii) temporal extrapolation beyond observed training frames. To scale GPs to the large number of Gaussian primitives in 4DGS, we design spatio-temporal kernels that capture the correlation structure of deformation fields and adopt variational Gaussian Processes with inducing points for tractable inference. Our experiments show that GP-4DGS enhances reconstruction quality while providing reliable uncertainty estimates that effectively identify regions of high motion ambiguity. By addressing these challenges, our work takes a meaningful step toward bridging probabilistic modeling and neural graphics.