AI Navigate

無限長のニューラルシミュレーションを目指して: 動力学系の自己改良型ニューラル・サロゲートモデル

arXiv cs.LG / 2026/3/19

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 動力学系のシミュレーションで用いられる自己回帰型ニューラル・サロゲートにおける短時間の忠実度と長時間の一貫性のトレードオフを明示する統一的な数学的枠組みを形式化した。
  • ハイパーパラメータ不要で頑健な自己改良型ニューラル・サロゲート(SNS)を、条件付き拡散モデルとして実装する。SNSは、設計上、短時間の忠実度と長時間の一貫性のバランスを取るように構成されている。
  • SNSは、自身の自己回帰出力を洗練させるスタンドアロンモデルとして展開できるほか、既存のサロゲートに対する補完モジュールとして長時間の一貫性を担保する。複雑な系に対して任意長の時間スケールにわたって数値的実現可能性が示されている。
  • 本研究は、このアプローチがニューラル・サロゲートの高速化(数オーダーの高速化)を維持しつつ、分布ドリフトを緩和し、長期の堅牢なシミュレーションを可能にすることを示唆している。

要旨:自己回帰型ニューラル代理モデルの最近の進展は、動的システムのシミュレーションを桁違いの速度で高速化することを可能にしています。しかし、自己回帰モデルは一般に分布ドリフトを起こしやすく、自己回帰展開における累積誤差が長時間の時間軸にわたって生成品質を著しく低下させます。既存の研究は、短時間の精度と長時間の一貫性という固有のトレードオフをハイパーパラメータの調整を通じて暗黙的に活用することでこの問題に対処しようとしています。本研究では、このトレードオフを明示化する統一的な数学的フレームワークを導入し、既存のアプローチにおけるハイパーパラメータに基づく戦略を形式化・一般化します。このフレームワークの中では、短期的な忠実度と長期的な一貫性を設計上の方法でバランスさせる、ハイパーパラメータなしの堅牢なモデルを条件付き拡散モデルとして実装することを提案します。我々のモデル、Self-refining Neural Surrogate model (SNS) は、自己回帰出力を自ら洗練させるスタンドアロンのモデルとして実装することも、長時間の一貫性を確保するための既存のニューラル代理モデルの補完的モデルとして実装することも可能です。さらに、SNSの数値的実現可能性を、複雑な動的システムの高忠実度シミュレーションを任意に長い時間範囲で行うことによって示します。