単眼動画からのダイナミック・ガウス・スプラッティングに向けた明示的な連続運動表現の学習
arXiv cs.CV / 2026/3/27
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文では、ダイナミックなガウスの連続的な位置および姿勢の変形を明示的にモデル化することで、単眼動画から高品質なダイナミック・ガウス・スプラッティングを行う手法を提案する。
- 運動を、コンパクトな制御点の集合を用いたSE(3) Bスプライン基底で表現し、従来手法よりも複雑なダイナミクスをより効果的に捉えることを目指す。
- 適応的な制御メカニズムにより、運動基底の数と制御点の数を動的に調整して計算効率を向上させる。
- 長い時間間隔にまたがる運動の干渉を扱うため、ソフトなセグメント再構成戦略を用い、さらに複数視点の拡散モデルにより学習ビューへの過学習を抑制する。
- 実験では、未知視点合成において最先端手法よりも性能が向上したことが報告されており、コードはGitHubで公開されている。



