ST-GDance++:長時間のグループ振付のためのスケーラブルな空間・時間拡散モデル

arXiv cs.AI / 2026/3/25

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は音楽からのグループ振付生成を対象とし、複数ダンサー間での空間的な協調を維持しつつ、長いシーケンスにわたるモーションの衝突を防ぐことに焦点を当てる。
  • 従来手法は、ダンサー数およびシーケンス長が増えるにつれて注意機構の計算コストが二次的に増大し、その結果、インタラクティブな実運用が困難になり、協調の安定性も損なわれると主張する。
  • ST-GDance++は、空間と時間の依存関係を切り離して効率と頑健性を高めるスケーラブルな拡散ベースの枠組みとして導入される。
  • 空間モデリングには、ダンサー間の関係を表すための軽量な距離認識グラフ畳み込みを用い、低いオーバーヘッドで表現する。
  • 時間モデリングでは、拡散ノイズのスケジューリング戦略と、長時間モーションのストリームベース生成を支える効率的な時間整合アテンションマスクを提案する。これにより、AIOZ-GDanceデータセットでレイテンシを低減しつつ、競争力のある品質を維持する。

Abstract

Group dance generation from music requires synchronizing multiple dancers while maintaining spatial coordination, making it highly relevant to applications such as film production, gaming, and animation. Recent group dance generation models have achieved promising generation quality, but they remain difficult to deploy in interactive scenarios due to bidirectional attention dependencies. As the number of dancers and the sequence length increase, the attention computation required for aligning music conditions with motion sequences grows quadratically, leading to reduced efficiency and increased risk of motion collisions. Effectively modeling dense spatial-temporal interactions is therefore essential, yet existing methods often struggle to capture such complexity, resulting in limited scalability and unstable multi-dancer coordination. To address these challenges, we propose ST-GDance++, a scalable framework that decouples spatial and temporal dependencies to enable efficient and collision-aware group choreography generation. For spatial modeling, we introduce lightweight distance-aware graph convolutions to capture inter-dancer relationships while reducing computational overhead. For temporal modeling, we design a diffusion noise scheduling strategy together with an efficient temporal-aligned attention mask, enabling stream-based generation for long motion sequences and improving scalability in long-duration scenarios. Experiments on the AIOZ-GDance dataset show that ST-GDance++ achieves competitive generation quality with significantly reduced latency compared to existing methods.