広告

暗黙的ニューラル表現に対するノイズ事前学習が驚くほど効果的である理由

arXiv cs.CV / 2026/4/1

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、パラメータの初期化が暗黙的ニューラル表現(INR)にどのような影響を与えるかを調査し、なぜデータ駆動型の初期化が性能を向上させ得るのかに焦点を当てている。
  • 複数のノイズ種(たとえばガウス、デッド・リーブス、スペクトラル)に対してノイズ事前学習を検証し、未知の信号への当てはめと逆画像化タスク(ノイズ除去)を支えるという2つの観点で評価する。
  • 結果は、無秩序なノイズ(Uniform/Gaussian)で事前学習すると、他のベースラインと比べて信号当てはめ能力が大きく向上する一方で、強力なノイズ除去用の事前知識(プライア)を形成しないことを示している。
  • 一方、自然画像のスペクトル構造に似たノイズ(従来の 1/|f^alpha| 形)で事前学習すると、より良いトレードオフが得られ、ノイズ除去性能が最良のデータ駆動型初期化手法と同等になる。
  • 著者らは、スペクトルに基づくノイズ手法により、ドメイン固有の事前データが限られる場合でも、より効率的にINRを学習できる可能性があると論じている。

Abstract

暗黙的ニューラル表現(INR)の近似性能と収束特性は、パラメータ初期化戦略に対して非常に敏感であることが知られています。いくつかのデータ駆動型の初期化手法は、標準的なランダムサンプリングと比べて大幅な改善を示しますが、その成功の理由――具体的には、それらが古典的な統計的信号の事前知識をエンコードしているのか、それともより複雑な特徴をエンコードしているのか――は、いまだ十分に解明されていません。本研究では、ノイズ・プリトレーニングを活用した一連の実験分析を通じて、この現象を検討します。ガウス(Gaussian)、デッド・リーヴス(Dead Leaves)、スペクトラル(Spectral)など、さまざまなノイズクラスに対してINRを事前学習し、未見の信号を当てはめる能力と、逆問題のイメージング課題(デノイジング)に向けて事前知識をエンコードする能力の両方を測定します。画像および動画データに対する分析から、驚くべき発見が得られました。構造化されていないノイズ(Uniform、Gaussian)で単に事前学習するだけで、他のすべてのベースラインと比べて、信号当てはめ能力が劇的に向上するのです。しかし、構造化されていないノイズは、デノイジングにおける良い深い画像事前知識(deep image priors)ももたらしません。これに対して、自然画像が持つ古典的な 1/|f^\alpha| のスペクトル構造を持つノイズは、信号当てはめと逆イメージング能力の優れたバランスを達成し、最良のデータ駆動型初期化手法と同等の性能を示すことも分かりました。この発見により、十分な事前ドメイン特化データが存在しないアプリケーションにおいて、より効率的にINRを訓練できるようになります。詳細はプロジェクトページ https://kushalvyas.github.io/noisepretraining.html をご覧ください。

広告