PhysHead: Simulation-Ready Gaussian Head Avatars

arXiv cs.CV / 4/9/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • PhysHead は、従来手法の「剛体的な髪」前提に起因する破綻(頭部からの髪の分離不足や体積的挙動の欠落)を解決する、シミュレーション可能な頭部アバター表現を提案している。
  • 本手法は 3D Gaussian をベースにしたレイヤード表現を中心に、頭部はパラメトリックメッシュ、髪はストランドベースで物理エンジンに直接載せられるハイブリッド構成になっている。
  • 外観(appearance)は頭部メッシュと髪セグメント双方に取り付けた Gaussian primitive で学習・表現し、風や物理条件に応じたリアルな髪の動きを可能にする。
  • 動的トレーニングで見えなくなる(オクルージョンする)領域の見た目を補うために、VLM ベースのモデルで隠れ領域の外観生成を行う新しい学習スキームを提案している。
  • 実験では定量・定性評価により、既存ベースラインとの比較で、表情やカメラ制御に加えて物理的に妥当な髪運動まで合成できることを示している。

Abstract

Realistic digital avatars require expressive and dynamic hair motion; however, most existing head avatar methods assume rigid hair movement. These methods often fail to disentangle hair from the head, representing it as a simple outer shell and failing to capture its natural volumetric behavior. In this paper, we address these limitations by introducing PhysHead, a hybrid representation for animatable head avatars with realistic hair dynamics learned from multi-view video. At the core is a 3D Gaussian-based layered representation of the head. Our approach combines a 3D parametric mesh for the head with strand-based hair, which can be directly simulated using physics engines. For the appearance model, we employ Gaussian primitives attached to both the head mesh and hair segments. This representation enables the creation of photorealistic head avatars with dynamic hair behavior, such as wind-blown motion, overcoming the constraints of rigid hair in existing methods. However, these animation capabilities also require new training schemes. In particular, we propose the use of VLM-based models to generate appearance of regions that are occluded in the dynamic training sequences. In quantitative and qualitative studies, we demonstrate the capabilities of the proposed model and compare it with existing baselines. We show that our method can synthesize physically plausible hair motion besides expression and camera control.