「容量」ではなく「変形の非整合性」:動的3Dガウススプラッティングにおける過学習の診断と緩和
arXiv cs.CV / 2026/4/21
📰 ニュースModels & Research
要点
- 動的3Dガウススプラッティングは訓練ビューでは高いPSNRを示す一方で汎化が弱く、D-NeRFでは平均で訓練-テストのPSNRギャップが6.18 dB、シーンによっては最大11 dBに達する。
- Adaptive Density Controlの系統的アブレーションにより、分割(splitting)を無効化するとガウス数が44K→3Kへ激減し、PSNRギャップも6.18 dB→1.15 dBへ大きく低下するため、分割が過学習に主に寄与することが示される。
- ただし「容量」だけでは不十分で、各ガウスの変形場に局所な滑らかさを課すElastic Energy Regularization(EER)を加えると、ガウス数を増やしつつ訓練-テストのギャップが40.8%低減する。
- チェックポイントでの変形歪みを直接測定すると、EERはひずみを平均で約99.7%低減し、全8シーンでEER適用時のガウスの中央値はベースラインの「最良挙動」上位1%未満よりも歪みが小さい。
- さらにGADやPTDropといった正則化を併用するとギャップは最大57%まで低減でき、別の変形アーキテクチャや実モノキュラ動画にも転移し、品質コストは小さいことが確認される。
関連記事

NVIDIA DGX SparkフルスタックAIハッカソンで作ったものが総合1位に—『Starfire』から『Molecules AI』へ
Dev.to

進捗を失わない:VS Codeでプロ仕様のJupyterワークフローをセットアップする(Colabのタイムアウトともおさらば!)
Dev.to

AgentOSを作る:保険請求の「AWS Lambda」を目指している理由
Dev.to

状況はここまで来た——1年で何もかも変わった:Kimi、Minimax、Qwen、Gemma、GLM
Reddit r/LocalLLaMA
Grok-2 Mini と Grok-3(mini)はどこにあるのか?
Reddit r/LocalLLaMA