概要: クラス不均衡は、NLPタスクにおける広範な課題であり、多様な領域やアプリケーションにわたって頑健な性能を大きく阻害しています。私たちは、クラス不均衡とデータの難しさの両方に適応的に対処する統一的フレームワークであるHardness-Aware Meta-Resample(HAMR)を提案します。HAMRは階層(バイレベル)の最適化を用いて、真に難しいサンプルと少数クラスを優先するインスタンス単位の重みを動的に推定します。さらに、近傍を考慮したリサンプリング機構により、難しい例とその意味的に類似した近傍に対する学習の焦点を強化します。私たちは、複数のタスクをカバーし、バイオメディカル、災害対応、感情(センチメント)といった領域にまたがる6つの不均衡データセットでHAMRを検証しました。実験結果は、HAMRが少数クラスに対して大きな改善を達成し、強力なベースラインに対して一貫して優れていることを示しています。広範なアブレーション研究により、提案モジュールが性能向上に相乗的に寄与すること、そしてHAMRがクラス不均衡への適応として柔軟で汎用性の高いアプローチであることが明らかになりました。コードは https://github.com/trust-nlp/ImbalanceLearning で公開されています。
クラス不均衡への適応のためのモデル非依存メタ学習
arXiv cs.CL / 2026/4/22
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- この論文は、クラス不均衡とデータの難しさのばらつきの下でNLP性能を改善するための、モデル非依存フレームワーク「Hardness-Aware Meta-Resample(HAMR)」を提案します。
- HAMRはバイレベル最適化を用いて、学習された手がかりに基づいて「本当に難しいサンプル」やマイノリティクラスを重視するインスタンスごとの重みを動的に割り当てます。
- さらに近傍を考慮したリサンプリングにより、難しい例そのものだけでなく意味的に類似した近傍サンプルにも訓練の重点を広げます。
- 論文では、複数のNLPタスクと領域(生物医学、災害対応、センチメントなど)にまたがる不均衡データ6セットで評価し、マイノリティクラスでの一貫した改善と総合性能の向上を示しています。
- アブレーション実験ではHAMRの各モジュールが相乗的に寄与していることが確認され、実装は提示されたGitHubリンクで公開されています。



