みなさん、こんにちは。
このサブレはローカルのテキストモデルに大きく焦点を当てているのは承知しているのですが、3D/ゲーム開発側のためのローカル計算(ローカル実行)プロジェクトを共有したくて投稿しました。現在の3D AI生成市場(Meshy や Rodin など)は、APIのペイウォール、月120ドルのサブスクリプション、そしてクラウドへのアップロード必須といった、まさに地獄のような状況です。これらは即座にスタジオのNDA(秘密保持契約)に違反してしまいます。
私は小規模なインディーゲームスタジオを運営していて、背景の小物やモブをオフラインで生成する必要がありました。そこでここ数か月、Hunyuan3D-2 のアーキテクチャを分解する作業を行い、完全にローカルで動作する自作ラッパーを構築しました。
アーキテクチャ:
中核:
幾何用の Hunyuan DiT + テクスチャリング用の Paint VAE。
パイプライン:
生のモデルをそのまま動かすのは大変だったので、スマートなエンジン対応UVアンラッピングには XAtlas を統合し、FP32のラスタライズには Nvdiffrast を使いました。
テクスチャ:
ネイティブ出力は通常ぼやけるので、パイプラインはアルベドを介入して、VRAMに配慮した4Kタイル分割アップスケーラを実行し、さらにGLBに包む前にローカルで手続き的(プロシージャル)なPBRノーマルマップを生成します。
ラッパー:
Python/PyTorch 環境をサンドボックス化する C# のUIです。huggingface_hub の自動修復スクリプトは、こちらで外科的に無効化しました。依存するのは、完全に物理的な24GBのローカルモデルフォルダのみです。イーサネットケーブルを抜いても、それでもきちんと生成できます。
ハードウェア:
私は自作環境で、RTX 3080 10GB を使ってこれを動かしています。4K アップスケーラと巨大な DiT モデルのせいで、現実的には 8GB+ のVRAMが必要です。そうでないと、C# のUIが最終フェーズでフリーズする可能性が高いです。VRAMのフラグメンテーション(断片化)を軽減するために、PyTorch の拡張可能セグメントを強制的に有効化する必要がありました。
この一連のパイプライン全体を、Valve の審査待ちとして Steam で「Jupetar」としてパッケージ化しました。SaaS疲れに加担したくないので、45ドルの買い切り(永続ライセンス)です。
購入前に、自分の環境でVRAMの上限と生成速度を試せるよう、無料デモ版を特別に用意して公開する予定です。
このローカル計算勢の方々が、パイプラインのアーキテクチャについてどう思っているかぜひ聞きたいです。あるいは、3D用途でローカルの PyTorch のVRAMフラグメンテーションをさらに最適化するためのヒントがあれば、どなたか教えてください!
このプロジェクトを追っていきたい場合は、以下にリンクを貼ります:
ソース:Steam https://share.google/d3FmRxIVF64A9oo5F
[link] [comments]




