LightCtrl: Training-free Controllable Video Relighting

arXiv cs.CV / 3/31/2026

📰 NewsSignals & Early TrendsModels & Research

Key Points

  • LightCtrl は、ユーザーが与える時系列の光(light trajectory)を用いて、学習なし(training-free)で明示的に照明を制御できるビデオリライティング手法を提案している。
  • 事前学習済みの拡散モデルをフレーム単位の画像リライティングに使い、その後にビデオ拡散の事前知識(prior)を組み合わせて時間的一貫性を高める構成になっている。
  • Light Map Injection は、入力された光軌道に応じたノイズをサンプリングして潜在表現に注入し、動画中の照明の整合性を強化する。
  • Geometry-Aware Relighting は、RGB と法線マップ(normal map)の潜在表現を周波数領域で動的に組み合わせ、元映像の照明の影響を抑えて指定した光軌道への追従性を向上させる。
  • 実験では、ベースラインよりも指定光軌道により密接に従う多様な照明変化を持つ高品質な動画が示され、実装コードも公開されている。

Abstract

Recent diffusion models have achieved remarkable success in image relighting, and this success has quickly been extended to video relighting. However, existing methods offer limited explicit control over illumination in the relighted output. We present LightCtrl, the first controllable video relighting method that enables explicit control of video illumination through a user-supplied light trajectory in a training-free manner. Our approach combines pre-trained diffusion models: an image relighting model processes each frame individually, followed by a video diffusion prior to enhance temporal consistency. To achieve explicit control over dynamically varying lighting, we introduce two key components. First, a Light Map Injection module samples light trajectory-specific noise and injects it into the latent representation of the source video, improving illumination coherence with the conditional light trajectory. Second, a Geometry-Aware Relighting module dynamically combines RGB and normal map latents in the frequency domain to suppress the influence of the original lighting, further enhancing adherence to the input light trajectory. Experiments show that LightCtrl produces high-quality videos with diverse illumination changes that closely follow the specified light trajectory, demonstrating improved controllability over baseline methods. Code is available at: https://github.com/GVCLab/LightCtrl.