潜在分布マッチングによる自己教師あり学習の理解

arXiv cs.LG / 2026/5/6

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • この論文は、自己教師あり学習(SSL)を「潜在分布マッチング(LDM)」として捉えることで、SSLの統一的な理論的枠組みを提案しています。
  • LDMでは、仮定した潜在モデルの下で表現の対数尤度を最大化する(alignment)一方で、表現の崩壊を防ぐために潜在エントロピーを最大化する(uniformity)という考え方を用います。
  • この枠組みにより、独立成分分析、対比的/非対比的SSL、予測的SSL、ストップグラジエント手法など、複数のSSL系統が1つの見方で統一されます。
  • LDMを用いて、サンプリングを必要としない非線形のベイズフィルタリングモデルと、高次元時系列向けのカルマン型予測器を導出しています。
  • さらに、予測的LDMが(穏やかな仮定の下で)非線形予測器を用いた場合でも識別可能な潜在表現を与え得ることを証明しています。

Abstract

自己教師あり学習(SSL)は、複雑なデータから汎用的な潜在表現を見つけることに優れている一方で、既存の多様な手法を説明し、新しい手法の設計を導く統一的な理論的枠組みが欠けています。私たちはSSLを潜在分布マッチング(LDM)として定式化します。すなわち、(アラインメントとして)仮定した潜在モデルの下で表現の対数確率を最大化する学習を行い、さらに(ユニフォミティとして)崩壊を防ぐために潜在エントロピーを最大化します。この見方により、独立成分分析を、コントラスト型、非コントラスト型、および予測型のSSL手法(stop gradientアプローチを含む)と統一的に結び付けます。LDMを活用して、非線形でサンプリング不要のベイズフィルタリングモデルを導出し、高次元時系列に対してKalmanベースの予測器を組み込みます。さらに、予測LDMが、穏やかな仮定のもとで、非線形予測器を用いた場合でも、同定可能な潜在表現を与えることを証明します。総じて、LDMは既存のSSL手法に内在する仮定を明確化し、新しいアプローチを開発するための原理に基づく指針を提供します。