Joint Embedding Variational Bayes(TMLR ’26)

Reddit r/MachineLearning / 2026/5/1

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • TMLR ’26の論文は、非コントラスト表現学習のジョイント・エンベディング・アーキテクチャに対して、3つの連動したモデリング選択により変分セマンティクスを実運用可能な形で導入する提案を行っています。
  • 結合尤度を「方向」と「放射(ノルム)」の項に因数分解し、角度方向の一致と表現の大きさを別々にモデル化することで、ノルムと方向の病的な結合を回避します。
  • 後方分布の不確実性を尤度スケールに結び付けることで、不確実性が推論とエンベディング尤度の両方に直接影響するようにします。
  • ガウスではなく重い尾(Student-t)の尤度を用いることで、ガウス極限付近での学習不安定化や致命的な破綻を防ぎます。
  • この手法は異方的で特徴ごとの不確実性を学習し、VI-SimSiamを含む下流のOOD(Out-of-Distribution)検出実験で評価され、コードも公開されています。

開示:筆頭著者。

この論文はちょうどTMLRで公開されたところで、ここにいる方の中で興味を持つ人がいるかもしれないと思いました。数学的にはかなり密ですが、概念的には素直です。非コントラスト表現学習のための共同埋め込み(joint-embedding)アーキテクチャに、操作的(operational)な変分意味論を追加するために、私たちは3つの結びついた選択を行います:

  • 埋め込み尤度の因数分解: 尤度は方向項と半径(半径方向)項に分割されるため、角度の整合と表現のノルムを別々にモデル化します。半径/ノルム項だけでは単独で精度を押し上げることはありませんが、この因数分解により、そうしない場合に生じるノルム‐方向の結合による病的な解(pathological solutions)を回避できます。
  • アンカー事後/尤度の不確実性: 事後分散を尤度のスケールに結びつけることで、不確実性が推論と埋め込み尤度の両方を直接支配します。
  • 裾の重い(heavy-tailed)尤度を使用: 尤度にはガウスではなくStudent-tの形を用います。これは実験的に重要です。尤度がガウス極限に近づくと、学習が不安定になり、モデルが壊滅的に(catastrophically)失敗するからです。

これらにより、モデルは異方的/特徴ごとの不確実性を学習できます。この不確実性は、下流のOOD検出の実験で評価されます。VI-SimSiam に対する比較も含まれます。

arXiv | OpenReview | Code

提出者: /u/ISwallow5Gum
[リンク] [コメント]