広告

コントラスト的な等角集合

arXiv cs.LG / 2026/3/30

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、学習したセマンティック埋め込み空間上で最小体積の被覆集合を構成し、学習可能な一般化マルチノルム制約を導入することで、コンフォーマル予測をコントラスト学習へ拡張する。
  • 正例(ポジティブサンプル)に対するユーザ指定の被覆率(分布非依存)を対象としつつ、負例(ネガティブサンプル)を除外する能力も向上させる。負例除外を、被覆集合の幾何学と体積によって定式化する。
  • 著者らは、体積最小化が負例除外の代理として機能し得ることを理論的に支持しており、負のペアが利用できない場合でも本手法が動作することを可能にしている。
  • シミュレーションおよび実画像データセットの両方で、距離ベースの標準的なコンフォーマル基準よりも、包含—除外のトレードオフが良好であることを示す。

Abstract

対照学習は、ポジティブサンプルを密にクラスター化し、ネガティブサンプルを分離することを促すことで、首尾一貫した意味的特徴埋め込みを生成します。しかし、既存の対照学習手法には、意味的特徴空間内でのカバレッジに関する原理的な保証が欠けています。そこで本研究では、学習可能な一般化マルチノルム制約を備えた最小体積カバー集合を導入することで、この設定に適用する形で予測適合(conformal prediction)を拡張します。ポジティブサンプルに対してユーザーが指定したカバレッジを保証しつつ、ネガティブサンプルの排除を最大化する適合集合を構築する手法を提案します。体積最小化がネガティブ排除の代理となることを理論的に示し、ネガティブペアが利用できない状況でも本アプローチが有効に動作できることを可能にします。ポジティブ包含の保証は、適合予測の分布非依存なカバレッジ特性を継承し、ネガティブ排除は、保持した学習用分割で最適化された学習済み集合の幾何により最大化されます。シミュレーションおよび実世界の画像データセットに対する実験により、標準的な距離ベースの適合(conformal)ベースラインと比較して、包含-排除のトレードオフが改善されることが示されます。

広告