Abstract
深層学習による縮約次数モデル(Reduced Order Models; ROMs)は、パラメトリック偏微分方程式(PDE)に対するサロゲートモデルとして、これまで以上に人気が高まっています。これは、高次元データを扱えること、非常に非線形な写像を近似できること、そしてGPUを活用できることによります。既存の手法は概して、(1)進化(evolution)をフルの解場上で学習するか、または(2)オートエンコーダから得られる圧縮された潜在表現(latent representations)上で学習するかのいずれかです。(1)では、高い計算コストを要して長距離の空間相互作用を捉える必要があります。(2)はコストを下げますが、潜在ベクトルが進化しにくいものになりがちです。なぜなら、それらは主として空間情報をエンコードしているからです。さらに、パラメトリックPDEでは初期条件だけでは軌道(trajectory)を決定するには不十分であり、現在の多くのアプローチは、異なる大きさとパラメータ感度(parameter sensitivities)をもつ複数の解成分を同時に予測することについて評価されていません。これらの課題に対処するため、畳み込みエンコーダ、潜在表現上で動作するトランスフォーマ、再構成のためのデコーダからなるジョイントモデルを提案します。本手法の主な新規性は、多段階のパラメータ注入と座標チャネル注入による共同学習(joint training)です。条件付けを改善するために、パラメータを複数の段階で注入します。物理座標をエンコードして空間情報を与えます。これにより、本モデルは単一の固定応答を学習するのではなく、各システムを支配する当該PDEパラメータに応じて計算を動的に適応させることが可能になります。移流拡散反応方程式(Advection-Diffusion-Reaction equation)と、円柱後流まわりのナビエ–ストークス流れ(Navier-Stokes flow around the cylinder wake)に関する実験により、提案手法は、潜在表現の進化の効率とフルフィールドモデルの忠実さを組み合わせ、マルチフィールド予測においてDL-ROM、潜在トランスフォーマ、単純なViTを上回ることが示されました。相対ロールアウト誤差は約5倍低減します。