難しさを維持する:サイアミーズネットワーク学習におけるトリプレット損失のためのマージンスケジューラ
arXiv cs.LG / 2026/3/30
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- サイアミーズネットワークのトリプレットマージンランキング損失は、正例ペアと負例ペアの分離を強制するためのマージンパラメータ μ を用いるが、学習中には多くのトリプレットが実効的に μ を超えてしまう。
- 著者らは、μ を固定すると学習プロセスが頭打ちになる可能性があると主張している。なぜなら、学習が進むにつれて、違反(または非違反)の例がより観測されることでトリプレットの難易度が時間とともに変化するからである。
- そこで、各エポックごとに「easy(容易な)」トリプレットの割合に基づいて μ を更新するマージンスケジューラを提案し、学習の難しさの水準を一貫に保つことを狙う。
- 4つのデータセットにまたがる実験により、このスケジューラが、固定マージンのベースラインおよび単調に増加するマージン手法の両方と比べて、検証性能を改善することが示される。



