HairOrbit: Multi-view Aware 3D Hair Modeling from Single Portraits

arXiv cs.CV / 4/6/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • 提案手法 HairOrbit は、単一ポートレートからのストランド単位3Dヘア復元を、多視点の較正済み復元問題へ言い換えることで、見えない領域でも破綻しにくい一貫した属性の再現を目指しています。
  • ビデオ生成モデルの持つ強い3D事前知識を活用しつつ、品質と効率のバランスのために疎な実画像注釈で訓練した neural orientation extractor を導入して、全視野でのオリエンテーション推定精度を高めています。
  • ハイブリッドな implicit field に基づく2段階の strand-growing アルゴリズムにより、3Dストランド曲線を詳細に合成しながら比較的高速に再構成する設計になっています。
  • 実験では、多様なヘアポートレートに対して可視・不可視両方の領域を含む単一視点3Dヘアストランド復元で、既存手法を上回る最先端性能を示したと報告しています。

Abstract

Reconstructing strand-level 3D hair from a single-view image is highly challenging, especially when preserving consistent and realistic attributes in unseen regions. Existing methods rely on limited frontal-view cues and small-scale/style-restricted synthetic data, often failing to produce satisfactory results in invisible regions. In this work, we propose a novel framework that leverages the strong 3D priors of video generation models to transform single-view hair reconstruction into a calibrated multi-view reconstruction task. To balance reconstruction quality and efficiency for the reformulated multi-view task, we further introduce a neural orientation extractor trained on sparse real-image annotations for better full-view orientation estimation. In addition, we design a two-stage strand-growing algorithm based on a hybrid implicit field to synthesize the 3D strand curves with fine-grained details at a relatively fast speed. Extensive experiments demonstrate that our method achieves state-of-the-art performance on single-view 3D hair strand reconstruction on a diverse range of hair portraits in both visible and invisible regions.