パラメータ空間にわたる外挿のための、偏微分方程式におけるレイト・フュージョン・ニューラルオペレーター
arXiv cs.LG / 2026/4/21
📰 ニュースModels & Research
要点
- 本論文は、物理パラメータの変化によって学習時と予測時の分布がずれる中で、未学習のパラメータ領域へPDE解を正確に外挿するという課題に焦点を当てています。
- 「Late Fusion Neural Operator」は、状態とパラメータの表現が絡み合う状況でも、状態ダイナミクスの学習とパラメータ効果を分離することを目的としたアーキテクチャとして提案されています。
- 手法は、潜在状態表現を学習するニューラルオペレーターと、パラメータ情報を構造化して取り込むための疎回帰を組み合わせます。
- 4つのPDEベンチマーク(移流、Burgers、1D/2D反応拡散)で、Fourier Neural Operator や CAPE-FNO より一貫して良い性能が示されています。
- Late Fusion Neural Operators は全実験で最良の結果を達成し、2番手手法に比べてRMSEを平均72.9%(in-domain)、71.8%(out-domain)削減するなど、パラメータ領域での強い一般化が確認されています。
関連記事

NVIDIA DGX SparkフルスタックAIハッカソンで作ったものが総合1位に—『Starfire』から『Molecules AI』へ
Dev.to

進捗を失わない:VS Codeでプロ仕様のJupyterワークフローをセットアップする(Colabのタイムアウトともおさらば!)
Dev.to

AgentOSを作る:保険請求の「AWS Lambda」を目指している理由
Dev.to

状況はここまで来た——1年で何もかも変わった:Kimi、Minimax、Qwen、Gemma、GLM
Reddit r/LocalLLaMA
Grok-2 Mini と Grok-3(mini)はどこにあるのか?
Reddit r/LocalLLaMA