ImVideoEdit: Image-learning Video Editing via 2D Spatial Difference Attention Blocks

arXiv cs.CV / 4/10/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • ImVideoEditは、従来の動画編集モデルが大量のペア動画データに依存していた課題に対し、画像ペアのみで動画編集能力を学習する効率的フレームワークを提案しています。
  • 凍結した事前学習済み3D attentionモジュールを活用し、画像を単一フレーム動画として扱うことで、2D空間の学習を切り出して元の時間ダイナミクスの保持を狙っています。
  • 提案手法の中心はPredict-UpdateのSpatial Difference Attentionで、進行的に「空間差分」を抽出して注入し、編集をより正確に反映します。
  • rigidな外部マスクに頼らず、Text-Guided Dynamic Semantic Gatingによりテキストに基づく適応的・暗黙的な修正を実現します。
  • 13Kの画像ペアを5エポックで学習し、計算コストを低く抑えながら、より大規模な動画データ学習モデルに近い編集の忠実性と時間的一貫性を報告しています。

Abstract

Current video editing models often rely on expensive paired video data, which limits their practical scalability. In essence, most video editing tasks can be formulated as a decoupled spatiotemporal process, where the temporal dynamics of the pretrained model are preserved while spatial content is selectively and precisely modified. Based on this insight, we propose ImVideoEdit, an efficient framework that learns video editing capabilities entirely from image pairs. By freezing the pre-trained 3D attention modules and treating images as single-frame videos, we decouple the 2D spatial learning process to help preserve the original temporal dynamics. The core of our approach is a Predict-Update Spatial Difference Attention module that progressively extracts and injects spatial differences. Rather than relying on rigid external masks, we incorporate a Text-Guided Dynamic Semantic Gating mechanism for adaptive and implicit text-driven modifications. Despite training on only 13K image pairs for 5 epochs with exceptionally low computational overhead, ImVideoEdit achieves editing fidelity and temporal consistency comparable to larger models trained on extensive video datasets.