DDCL: 深層デュアル競合学習(Deep Dual Competitive Learning): 教師なしプロトタイプベース表現学習のための微分可能エンドツーエンドフレームワーク
arXiv cs.LG / 2026/4/3
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、深層クラスタリングにおける主要な限界として、k-means のような外部手法が疑似ラベルを生成して学習に用いる際に生じる「特徴学習」と「クラスタ割り当て」の間のギャップを挙げている。
- 深層デュアル競合学習(DDCL)を提案する。これは、外部の k-means を置き換える、ネットワーク内部で Dual Competitive Layer(DCL)がプロトタイプとソフトなクラスタ割り当てを直接生成する、エンドツーエンドで微分可能なプロトタイプベースのフレームワークである。
- 本アプローチはバックプロパゲーションで最適化される単一の統一損失を用いることで、疑似ラベルの離散化や、通常 k-means ベースのパイプラインで必要となる反復の Lloyd ステップを不要にする。
- 著者らは、ソフト量子化損失を、単体(シンプレックス)制約付きの再構成誤差と、プロトタイプの崩壊(collapse)に対して暗黙の分離力を与える非負のプロトタイプ分散項へと分解する理論的な代数表現を導出している。
- 実験では、非微分型のアブレーションに対して 65% 高いクラスタリング精度、さらに end-to-end の DeepCluster バリアントに対して 122% の改善が報告されており、また長時間学習における安定性についても主張している。




