概要: 本論文では、人の3D再構成とリアルタイムアニメーションのための、一般化可能なフィードフォワード型ガウス・スプラッティング(Gaussian splatting)フレームワークを提示します。この手法は、複数視点のRGB画像と、それに対応するSMPL-Xポーズに直接作用します。深度教師、固定された入力視点、UVマップ、あるいは各ターゲット視点やポーズごとに繰り返しフィードフォワード推論を行うことに依存する従来手法とは異なり、提案手法は正準(canonical)ポーズにおいて、各SMPL-X頂点に関連付けられた一連の3Dガウス原始(primitives)を予測します。1つのガウスはSMPL-X表面に近い状態を保つよう正則化され、強力な幾何学的事前知識と、パラメトリックな身体モデルへの安定した対応付けを提供します。一方で、各頂点に対する追加の小さな範囲の拘束なしガウス群により、衣服や髪の毛のように、パラメトリック表面から逸脱する幾何構造を表現することが可能になります。HumanRAMのような近年の手法とは対照的に、そこでは新しいポーズを合成するためにネットワーク推論を繰り返す必要がありますが、本手法は単一のフォワードパスからアニメ可能な人体表現を生成します。ガウス原始をSMPL-X頂点に明示的に対応付けることで、再構成されたモデルは追加のネットワーク評価なしに、線形ブレンドスキニング(linear blend skinning)によって効率的にアニメーション化できます。本手法をTHuman 2.1、AvatarReX、THuman 4.0の各データセットで評価したところ、最先端手法と同等の再構成品質を達成しつつ、リアルタイムアニメーションとインタラクティブなアプリケーションを独自にサポートします。コードと事前学習済みモデルは https://github.com/Devdoot57/HumanGS で利用可能です。
フィードフォワード・ガウススプラッティングによるリアルタイム人体再構成とアニメーション
arXiv cs.CV / 2026/4/14
📰 ニュースSignals & Early TrendsModels & Research
要点
- 本論文は、マルチビューRGB画像にSMPL-Xポーズを加えた入力から、3D人体再構成とリアルタイムアニメーションを行うための、汎用的なフィードフォワード型ガウススプラッティング・フレームワークを提案する。従来研究で用いられてきた深度監督や固定視点の制約には依存しない。
- 身体のカノニカルポーズにおける3Dガウス原始の集合を予測し、各SMPL-X頂点にガウスを割り当てる。さらに、強い幾何学的事前知識(頂点ごとに拘束されたガウス1つ)を用いるとともに、衣服や髪などのずれを表現するための、拘束なしの追加ガウスも導入する。
- HumanRAMのように、新しいポーズを合成するために推論を繰り返し行う必要がある手法とは異なり、本手法は1回のフィードフォワード処理後に、線形ブレンド・スキニングにより再構成表現をアニメーション化できる。
- THuman 2.1、AvatarReX、THuman 4.0での実験により、再構成品質が最先端手法に匹敵することが示され、かつ本手法はリアルタイムかつインタラクティブな応用を独自に支援する。
- 著者らはコードと学習済みモデルを公開しており、効率的な人体再構成パイプラインの導入やさらなる研究を促進する。




