I-INR:反復的インプリシット・ニューラル表現

arXiv cs.CV / 2026/4/29

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 暗黙的ニューラル表現(INR)は、信号をニューラルネットワークで連続かつ微分可能な関数としてモデル化できる一方で、スペクトルバイアスによって高周波情報の保持が難しく、ノイズ耐性も課題になっています。
  • 本論文では Iterative Implicit Neural Representations(I-INRs)を提案し、反復的な再構成の洗練によって高周波の細部を復元する枠組みを提示しています。
  • I-INRsは既存のINRアーキテクチャに容易に組み込めるため、追加パラメータは0.5〜2%程度にとどまり、再構成時の計算増は0.8〜1.6% FLOPsと小規模です。
  • 画像フィッティング、画像デノイジング、物体占有予測などの複数のコンピュータビジョンタスクで、WIRE、SIREN、Gaussといった手法に対して一貫して優位で、最大+2.0 PSNRの改善が報告されています。
  • 実装コードは github.com/optimizer077/I-INR で公開されており、再現性と導入を支える意図があります。

Abstract

暗黙的ニューラル表現(Implicit Neural Representations: INRs)は、信号をニューラルネットワークによってパラメータ化された連続で微分可能な関数としてモデル化することで、信号処理およびコンピュータビジョンを革新してきました。しかし、INRsはスペクトルバイアス問題に陥りやすく、高周波情報を保持する能力が制限されるだけでなく、しばしばノイズ頑健性にも苦戦します。反復的洗練(iterative refinement)プロセスに関する最近の動向に触発され、反復的暗黙的ニューラル表現(Iterative Implicit Neural Representations: I-INRs)を提案します。この新規なプラグアンドプレイ型の枠組みは、信号再構成を反復的に洗練して高周波の詳細を復元し、ノイズ頑健性を向上させ、汎化性能を強化します。最終的に、より優れた再構成品質を提供します。I-INRsは、既存のINRアーキテクチャにシームレスに統合でき、パラメータ数の増加はわずか0.5〜2%にとどまります。再構成時には、反復的洗練によってベースラインに対する追加FLOPsはわずか0.8〜1.6%増に過ぎない一方で、最大+2.0 PSNRという大きな性能向上をもたらします。広範な実験により、I-INRsが画像のフィッティング、画像のデノイジング、物体の占有(occupancy)予測を含むさまざまなコンピュータビジョンタスクにおいて、WIRE、SIREN、Gaussを一貫して上回ることが示されています。コードはgithub.com/optimizer077/I-INRで利用可能です。