Silhouette Loss:深い表現のための微分可能なグローバル構造学習
arXiv cs.AI / 2026/4/13
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、古典的なシルエット係数に着想を得た微分可能な目的関数「Soft Silhouette Loss」を提案し、標準的な交差エントロピー(CE)を超えて、クラス内のコンパクト性とクラス間の分離を促すことで埋め込み(embedding)の幾何構造を改善する。
- ペアワイズまたはプロキシベースのメトリック学習手法とは異なり、Soft Silhouette Lossはバッチ内の全クラスに対して各サンプルを比較することで、軽量性を保ちながらバッチレベルのグローバル構造という概念を捉える。
- Soft Silhouette LossはCEと直接組み合わせ可能であり、教師ありコントラスト学習(SupCon)とも互換である。これにより、ローカルなペア間整合性とグローバルなクラスタ構造の両方を最適化するハイブリッド損失が実現できる。
- 7つのデータセットにまたがる実験により一貫した改善が示される。CE+Soft Silhouette LossはCEや他のメトリック学習のベースラインを上回り、ハイブリッド手法はSupCon単独を上回る。さらに、最良手法ではTop-1精度が36.71%(CE)および37.85%(SupCon2)から39.08%へ向上し、より複雑なメトリック学習設定よりも大幅にオーバーヘッドが小さい。
