要旨: 本稿では、幾何学に基づく動画生成により、屋外の状況における3Dガウス・スプラッティング(3DGS)再構成を改善する新しいアプローチであるGaussFusionを提案します。GaussFusionは、カメラ姿勢の誤り、不完全なカバレッジ、ノイズの多い幾何学初期化に起因する、浮遊物(floaters)、ちらつき、ぼやけといった一般的な3DGSアーティファクトを軽減します。従来のRGBベース手法が単一の再構成パイプラインに限定されているのに対し、本手法は、最適化ベースおよびフィードフォワードの双方の方法にわたって3DGSレンダリングを改良する、幾何学に基づく動画-to-動画ジェネレータを導入します。既存の再構成が与えられると、深度、法線、不透明度、共分散を符号化したガウスプリミティブの動画バッファをレンダリングし、ジェネレータがこれを洗練させることで、時間的に一貫した、アーティファクトのないフレームを生成します。さらに、多様な劣化パターンをシミュレートするアーティファクト合成パイプラインも導入し、頑健性と汎化性を保証します。GaussFusionは、新規視点合成ベンチマークにおいて先端(state-of-the-art)の性能を達成し、効率的なバリアントは同等の性能を維持しつつ21 FPSでリアルタイム動作するため、インタラクティブな3Dアプリケーションを可能にします。
GaussFusion:ジオメトリに情報を与えた動画生成で、野外での3D再構成を改善する
arXiv cs.CV / 2026/3/27
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- GaussFusionは、3D Gaussian splatting(3DGS)による「野外(in the wild)」の3D再構成を、ジオメトリに情報を与えた動画生成で改善する新手法として提案されている。
- カメラ姿勢誤差、不完全なカバレッジ、ノイズの多いジオメトリ初期化に起因するフローテンズ、ちらつき(flickering)、ブラーといった典型的なアーティファクトを低減することが狙いだ。
- 既存の再構成から深度・法線・不透明度・共分散を符号化した「Gaussian primitive video buffer」を生成し、これをvideo-to-videoジェネレータで推敲して時間的に一貫したフレームを作る。
- ジオメトリ/レンダリング劣化の多様なパターンを生成するアーティファクト合成パイプラインにより、頑健性と汎化性能を高めている。
- 新視点合成ベンチマークで最先端性能を達成し、効率版は21FPSでリアルタイム動作し、同程度の性能を維持できるとしている。