\mathbf{A} を2つの成分に分解する点にあります:
\mathbf{A} = \mathbf{\Pi} \odot \mathbf{F}。ここで、
\mathbf{\Pi} はクラスタリングの制約を維持し、
\mathbf{F}$ はマルチラベルとしての特性を保持します。この分解により、ラベルノイズを効果的に扱うための無教師クラスタリングとマルチラベルの教師あり情報をシームレスに統合できます。WSC-PML は3段階のプロセスを用います:ノイズを含むラベルからの初期プロトタイプ学習、適応的な信頼度に基づく弱教師あり情報の構築、反復的なクラスタリングの洗練による共同最適化です。24のデータセットに対する大規模な実験の結果、提案手法は、評価指標のすべてにおいて6つの最先端手法を上回ることを示しました。
MLLにクラスタリングを持ち込む:部分マルチラベル学習のための弱教師ありクラスタリング
arXiv cs.LG / 2026/4/13
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、マルチラベル学習におけるラベルノイズに取り組み、候補ラベルに関連するものと無関係なものの両方が含まれる部分マルチラベル学習(PML)に焦点を当てる。
- クラスタリングは合計が1になるように制約されたソフトな所属度を生成するのに対し、マルチラベル割り当ては二値であり合計が状況に応じて変わり得るため、標準的なクラスタリングをマルチラベル設定にそのまま適用することはできないと主張する。
- 提案手法であるWSC-PMLは、クラスタリング所属行列を2つの因子に分解し、そのうち1つがクラスタリングの制約を保持し、もう1つがマルチラベルの構造を保持することで、この不一致を埋める。
- WSC-PMLは、3段階のパイプラインとして実装される:ノイズのあるラベルからのプロトタイプ学習、信頼度に基づく弱教師の構築、クラスタリングの改善を伴う反復的な共同最適化。
- 24のデータセットにわたる実験により、WSC-PMLが複数の評価指標において、既存の6つの最先端手法を上回ることが示される。
