機能マップのためのディープガウス過程

arXiv stat.ML / 2026/4/7

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、関数空間同士の写像を学習する関数対関数回帰(function-on-function regression)に取り組み、複雑な非線形関係のモデリングや、ノイズのあるまばらな、あるいは不規則なサンプリング下での十分に校正された不確実性(uncertainty)の生成における既存手法の限界を指摘する。
  • 関数空間上で、カーネル積分変換とGP(ガウス過程)の条件付き平均を用いて、ガウス過程に基づく線形・非線形変換を逐次的に適用する「Deep Gaussian Processes for Functional Maps(DGPFM)」を提案する。
  • 重要な実装上の洞察として、評価位置が固定されている場合、カーネル積分変換の離散近似は関数積分変換(functional integral transforms)に簡略化されるため、大きな構造変更を伴わずに柔軟な変換設計が可能になる。
  • スケーラブルな確率推論のため、DGPFMは変分学習の枠組みの中で、誘導点(inducing points)とホイテン(whitening)変換を用いる。
  • 合成データおよび実データのベンチマークに関する実験では、従来手法と比較して予測精度の向上と、不確実性の校正の改善が報告されている。

Abstract

関数空間間の写像を学習すること、すなわち関数対関数回帰(function-on-function regression)は、機能データ解析における基本的な問題であり、時空間予測、曲線予測、気候モデリングなど幅広い応用があります。既存の手法はしばしば、複雑な非線形関係を捉えることや、データがノイズを含み、疎であり、あるいは不規則にサンプリングされている場合に信頼できる不確実性の定量化を行うことに苦戦します。これらの課題に対処するために、我々は関数写像のためのディープガウス過程(Deep Gaussian Processes for Functional Maps; DGPFM)を提案します。我々の手法は、カーネル積分変換、GP条件付き平均、およびガウス過程からサンプリングした非線形活性化を活用し、関数空間上で直接、GPベースの線形変換と非線形変換の列を構成します。重要な洞察により、実装が簡素で柔軟になります。すなわち、評価位置が固定されているもとでは、カーネル積分変換の離散近似が、直接の関数積分変換に帰着するため、さまざまな変換設計をシームレスに統合できます。スケーラブルな確率的推論を支えるため、変分学習の枠組みの中で、誘導点とホワイトニング変換を採用します。実世界および合成ベンチマークデータセットの両方に関する実験結果は、予測精度と不確実性のキャリブレーションの観点でDGPFMの利点を示しています。