CAMO:不均衡データにおける頑健な言語モデル評価のためのクラス認識型・少数派最適化アンサンブル
arXiv cs.CL / 2026/4/10
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、クラス不均衡が深刻な状況下で多数派クラスが支配することを回避し、言語モデルの評価および予測を改善することを目的としたアンサンブル手法CAMO(Class-Aware Minority-Optimized)を提案する。
- CAMOは階層的戦略を用い、投票分布、信頼度の校正、モデル間の不確実性を組み合わせることで、過小表現クラスを動的に強化し、少数派の予測を強固にする。
- 2つの不均衡なドメイン固有ベンチマーク(DIAR-AI/Emotionおよび三値分類のBEA 2025)において、8つの言語モデル(LLMおよびSLMの両方を含む)を用い、ゼロショットと微調整の設定でCAMOを7つの既存のアンサンブル手法と比較する。
- 結果として、CAMOは洗練された(refined)モデルにおいて最良の厳密なマクロF1スコアを達成し、アンサンブルの有効性はモデルの特性、特にモデル適応が適用された場合に強く依存することが示される。
- 著者らは、CAMOが不均衡な分類のためのドメインに中立な枠組みであり、現実の偏りのあるデータセットにおける頑健な評価に対して信頼できるアプローチであると主張する。


