広告

Physics-Guided Transformer (PGT): PINN向け物理を意識した注意機構

arXiv cs.LG / 2026/3/31

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、Physics-Guided Transformer(PGT)と呼ばれる物理を意識したニューラルアーキテクチャを提案し、多くの物理情報ニューラルネット(PINNs)系手法で用いられるソフトペナルティではなく、自己注意機構へ直接PDE(偏微分方程式)の構造を注入する。
  • PGTは、拡散ダイナミクスと時間的因果性を符号化するために、熱核由来のバイアスを注意ログit(attention logits)に追加し、クエリ座標が物理条件付けされたコンテキストトークンに注意できるようにする。
  • モデルのデコーディングでは、スペクトル応答を適応的に制御するため、FiLM変調されたサイン波状の暗黙(implicit)ネットワークを用い、より安定で物理的に整合した再構成を目指す。
  • 1次元の熱方程式および2次元の非圧縮Navier–Stokes(ナビエ–ストークス)に関する実験では、観測データが乏しい設定で大幅な性能向上が示されており、100観測における1次元の相対L2誤差が5.9e-3であることが報告されている。
  • 2次元シリンダ後流(cylinder wake)問題において、PGTは低いPDE残差と競争力のある再構成誤差の両方を達成し、いずれか一方の目的のみを最適化する手法よりも優れていると報告されている。

Abstract

疎で不規則な観測から連続的な物理場を再構成することは、科学的機械学習における中核的な課題であり、特に偏微分方程式(PDE)により支配されるシステムにおいて重要です。既存の物理インフォームド手法では、多くの場合、支配方程式を最適化中のソフトなペナルティ項として強制し、その結果として勾配の不均衡、不安定性、データが限られる場合の物理的一貫性の低下が生じがちです。本研究では、自己注意メカニズムに物理的構造を直接埋め込むニューラルアーキテクチャであるPhysics-Guided Transformer(PGT)を提案します。具体的には、PGTは注意ログitに対して熱核(heat-kernel)由来の加法バイアスを組み込み、拡散ダイナミクスと時間的因果性を表現の中に符号化します。クエリ座標は物理条件づけされたコンテキスト・トークンに注意を向け、得られた特徴は、スペクトル応答を適応的に制御するFiLM変調された正弦波(sinusoidal)系の暗黙的ネットワークによりデコードされます。PGTを、1次元の熱方程式および2次元の非圧縮Navier-Stokesシステムで評価します。100観測点による疎な1D再構成では、PGTは相対L2誤差5.9e-3を達成し、PINNと正弦表現の両方を大きく上回ります。2D円柱後流問題では、PGTは唯一、低いPDE残差(8.3e-4)と競争力のある相対誤差(0.034)の両方を同時に達成し、いずれか一つの目的のみを最適化する手法を上回ります。これらの結果は、注意の中に物理を埋め込むことで、データが乏しい状況における安定性、汎化、そして物理的忠実性が向上することを示しています。

広告