GaussFusion: Improving 3D Reconstruction in the Wild with A Geometry-Informed Video Generator

arXiv cs.CV / 3/27/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • GaussFusionは、3D Gaussian splatting(3DGS)による「野外(in the wild)」の3D再構成を、ジオメトリに情報を与えた動画生成で改善する新手法として提案されている。
  • カメラ姿勢誤差、不完全なカバレッジ、ノイズの多いジオメトリ初期化に起因するフローテンズ、ちらつき(flickering)、ブラーといった典型的なアーティファクトを低減することが狙いだ。
  • 既存の再構成から深度・法線・不透明度・共分散を符号化した「Gaussian primitive video buffer」を生成し、これをvideo-to-videoジェネレータで推敲して時間的に一貫したフレームを作る。
  • ジオメトリ/レンダリング劣化の多様なパターンを生成するアーティファクト合成パイプラインにより、頑健性と汎化性能を高めている。
  • 新視点合成ベンチマークで最先端性能を達成し、効率版は21FPSでリアルタイム動作し、同程度の性能を維持できるとしている。

Abstract

We present GaussFusion, a novel approach for improving 3D Gaussian splatting (3DGS) reconstructions in the wild through geometry-informed video generation. GaussFusion mitigates common 3DGS artifacts, including floaters, flickering, and blur caused by camera pose errors, incomplete coverage, and noisy geometry initialization. Unlike prior RGB-based approaches limited to a single reconstruction pipeline, our method introduces a geometry-informed video-to-video generator that refines 3DGS renderings across both optimization-based and feed-forward methods. Given an existing reconstruction, we render a Gaussian primitive video buffer encoding depth, normals, opacity, and covariance, which the generator refines to produce temporally coherent, artifact-free frames. We further introduce an artifact synthesis pipeline that simulates diverse degradation patterns, ensuring robustness and generalization. GaussFusion achieves state-of-the-art performance on novel-view synthesis benchmarks, and an efficient variant runs in real time at 21 FPS while maintaining similar performance, enabling interactive 3D applications.