Transformerエンコーダ向け、崩壊しないプロトタイプ・リードアウト層
arXiv cs.LG / 2026/4/7
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- DDCL-Attentionは、平均プーリング/クラス・トークンを、グローバルなプロトタイプベクトルとソフトなトークン対プロトタイプの対応付けを用いた学習済み圧縮スキームに置き換える、プロトタイプベースのリードアウト層を提案する。
- この手法は、学習損失を再構成項と多様性項に分解することでプロトタイプの崩壊(collapse)を防ぎ、プロトタイプ同士を明確に保つことを目的としている。
- エンコーダとの共同学習の安定性は、ティホノフの特異摂動理論に基づく理論的な裏付けに加え、実用的な時定数条件に結び付けた明示的な学習率制約によって支えられる。
- 同一の枠組みは3通りに利用できる。最終リードアウト層として、VQ-VAEに関連する微分可能なコードブックとして、そして階層的なドキュメント圧縮としてである。
- 複数のデータセットでの実験により、損失分解と、期待されるプロトタイプ分離のダイナミクスが検証される。さらに、ハードなベクトル量子化よりも、コードブック全体の活用による性能が優れていることが示される。加えて、軌道デブリ分類の事例を含め、典型的なNLP/コンピュータビジョンを超えた幅広い適用可能性が示唆される。



