要旨: 高品質な4D再構成は、動的な現実世界をフォトリアルで没入感のある描画に可能にします。しかし、単一のカメラで完全に捉えられる静的シーンとは異なり、高品質な動的シーンは通常、同期された数十台、あるいは数百台に及ぶ密なカメラアレイを必要とします。このような高価な実験室環境への依存は、実用的なスケーラビリティを厳しく制限します。そこで本研究では、大量に存在するものの一貫性のない(不整合を含む)生成観測を活用する、スパースカメラによる動的再構成の枠組みを提案します。主要な新規性は、時空間歪み場(Spatio-Temporal Distortion Field)であり、空間次元と時間次元の両方にまたがって生成観測に含まれる不整合をモデル化するための統一的な仕組みを提供します。これに基づいて、スパースで未校正のカメラ入力から4D再構成を可能にする完全なパイプラインを開発します。複数カメラの動的シーンに関するベンチマークで本手法を評価し、時空間的に一貫した高忠実度の描画を達成するとともに、既存手法を大幅に上回ります。
SparseCam4D: 疎カメラからの時空間一貫的な4D再構成
arXiv cs.CV / 2026/3/30
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、高価で同期済みの密なカメラ実験環境に代わることを目指した、動的(4D)再構成のための疎カメラフレームワークであるSparseCam4Dを提案する。
- 中核となる貢献は、空間次元と時間次元の両方において、生成的観測に含まれる不整合をモデル化し補正する「時空間歪み(Spatio-Temporal Distortion)フィールド」である。
- 著者らは、疎で校正されていないカメラインプットから4Dシーンを再構成するための、エンドツーエンドのパイプラインを提示する。
- 複数カメラによる動的シーンのベンチマークでの実験により、従来手法よりも優れた、時空間的に一貫した高忠実度なレンダリングが示される。



