AI Navigate

Slack More, Predict Better: 確率的潜在変数モデルベースのソフトセンサに対する近接緩和

arXiv cs.LG / 2026/3/13

📰 ニュースIdeas & Deep AnalysisIndustry & Market MovesModels & Research

要点

  • KProxNPLVMは、Wasserstein距離を近接演算子として用いることにより学習目的を緩和し、ソフトセンサの性能を向上させる新規の確率的潜在変数モデルを導入します。
  • 本研究は、ニューラルネットワークでパラメータ化された従来のアモルタイズド変分推論が、有限次元の最適化に起因する近似誤差を生じうることを指摘します。
  • 本研究は、厳密な最適化の導出を提供し、収束性を証明し、緩和がどのように近似ギャップを回避できるかを示します。
  • 合成データおよび実世界の産業データセットを用いた広範な実験により、提案手法KProxNPLVMがソフトセンサ用途において有効性と堅牢性を示すことを実証します。
要約: 非線形確率的潜在変数モデル(NPLVM)は、不確実性の描出能力によりソフトセンサモデリングの要となる。しかし、従来のNPLVMはアモルタイズド変分推論を用いて訓練され、ニューラルネットワークが変分後方分布をパラメータ化します。モデル実装を容易にする一方で、このパラメータ化は無限次元の関数空間における分布最適化問題を有限次元のパラメータ空間での最適化へと変換し、近似誤差ギャップを生じさせることでソフトセンサのモデリング精度を低下させます。 この問題を緩和するために、目的関数自体を緩和しNPLVMの性能を改善する新規NPLVMであるKProxNPLVMを導入します。具体的には、従来のアプローチによって生じる近似誤差を初めに証明します。これに基づき、Wasserstein距離を近接演算子として設計し、学習目的を緩和し、この緩和された最適化問題を解くことから派生した新しい変分推論戦略を導出します。 この基盤に基づき、KProxNPLVMの最適化実装の厳密な導出を提供し、提案アルゴリズムの収束性が最終的に近似誤差を回避できることを証明し、上記内容を要約してKProxNPLVMを提案します。 最後に、合成データと実世界の産業データセットを用いた広範な実験を実施し、提案されたKProxNPLVMの有効性を示します。