要旨: 汎用の埋め込みモデルは意味的類似性を認識する点に優れていますが、ユーザーの指示によって指定されたテキストの特性を捉えることには失敗します。これに対して、指示調整された埋め込み器は埋め込みをテキストの指示に整合させることはできますが、最適なクラスタ数の決定などのような、潜在的なコーパス構造を自律的に推論することはできません。両方の制限に対処するために、我々は指示追従型クラスタリングを生成タスクとして捉え、巨大な推論モデル(LRM)を自律的なクラスタリングエージェントとして学習させます。我々の推論に基づく学習パイプラインにより、LRMは高レベルのクラスタリング指示を解釈し、その対応する潜在的なグルーピングを推論できます。このパラダイムを評価するために、日常会話、法律事例、財務レポートにまたがる28の多様なタスクから成る包括的なベンチマーク「ReasonCluster」を導入します。多様なデータセットとクラスタリングの状況にわたる実験の結果、我々のアプローチは強力な埋め込みベース手法およびLRMベースラインに対して一貫して優れた性能を示し、明示的な推論が、より忠実で解釈可能な指示に基づくクラスタリングを促進することを実証します。
Cluster-R1: 大規模推論モデルは指示に従うクラスタリングエージェントである
arXiv cs.CL / 2026/3/26
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、標準的な埋め込みモデルは意味的な類似性を捉えるものの、ユーザーの指示として表現されるクラスタリング要件を反映できないことが多い一方、指示調整された埋め込み器(instruction-tuned embedders)でも潜在的なクラスタ構造(たとえばクラスタ数の選択)を推論する点でなお難しさがあると主張している。
- 指示に従うクラスタリングを生成タスクとして捉え直し、Large Reasoning Models(LRM)を、自律的なクラスタリングエージェントとして学習させることを提案する。これにより、高度な指示を解釈し、グルーピングを推論できるようにする。
- 著者らは、日常会話、法的事例、財務レポートなどの領域を含む、指示に従うクラスタリングタスク28件からなるベンチマーク「ReasonCluster」を導入する。
- 複数のデータセットおよびクラスタリングのシナリオにまたがる実験により、LRMベースのアプローチが強力な埋め込みベースラインや他のLRMベースラインを上回り、得られたクラスタの忠実性(faithfulness)と解釈可能性(interpretability)の向上が示される。