パラメータ空間にわたる外挿のための、偏微分方程式におけるレイト・フュージョン・ニューラルオペレーター

arXiv cs.LG / 2026/4/21

📰 ニュースModels & Research

要点

  • 本論文は、物理パラメータの変化によって学習時と予測時の分布がずれる中で、未学習のパラメータ領域へPDE解を正確に外挿するという課題に焦点を当てています。
  • 「Late Fusion Neural Operator」は、状態とパラメータの表現が絡み合う状況でも、状態ダイナミクスの学習とパラメータ効果を分離することを目的としたアーキテクチャとして提案されています。
  • 手法は、潜在状態表現を学習するニューラルオペレーターと、パラメータ情報を構造化して取り込むための疎回帰を組み合わせます。
  • 4つのPDEベンチマーク(移流、Burgers、1D/2D反応拡散)で、Fourier Neural Operator や CAPE-FNO より一貫して良い性能が示されています。
  • Late Fusion Neural Operators は全実験で最良の結果を達成し、2番手手法に比べてRMSEを平均72.9%(in-domain)、71.8%(out-domain)削減するなど、パラメータ領域での強い一般化が確認されています。

Abstract

偏微分方程式(PDE)によって支配されるシステムの振る舞いを、未見のパラメータ領域にわたって正確に予測できるニューラル演算子を開発することは、科学・工学の応用における頑健な汎化のために重要である。実際の応用では、物理パラメータの変動が訓練領域と予測領域の間に分布シフトを引き起こし、外挿が中心的な課題となる。その結果、パラメータをニューラル演算子モデルにどのように組み込むかが、その汎化能力、特に状態表現とパラメータ表現が絡み合っている場合における能力の鍵となる。本研究では、Late Fusion Neural Operator(後期融合ニューラル演算子)を提案する。これは、状態ダイナミクスの学習とパラメータの効果を切り離す(デコードする)ことで、訓練分布内だけでなく訓練分布外でも予測性能を向上させるアーキテクチャである。我々の手法は、潜在状態表現を学習するためのニューラル演算子と、パラメータ情報を構造化された形で取り込むための疎回帰(スパース回帰)を組み合わせる。移流、バーガーズ、さらに1次元および2次元の反応拡散方程式を含む4つのベンチマークPDEにおいて、提案手法は一貫してフーリエ・ニューラル演算子(Fourier Neural Operator)およびCAPE-FNOを上回る。Late Fusion Neural Operatorsは、すべての実験で一貫して最良の性能を達成し、2番手手法に比べて、領域内(in-domain)で平均RMSEを72.9%削減し、領域外(out-domain)で71.8%削減した。これらの結果は、領域内および領域外のパラメータ領域の両方にわたって強い汎化を示している。