Web規模データとアンサンブルLLM注釈による一般化されたクロスリンガル差別・憎悪表現検出への道筋
arXiv cs.CL / 2026/4/14
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- この論文は、Web規模のラベルなし多言語テキストに加えてLLMが生成した合成ラベルを用いることで、4言語(英語、ドイツ語、スペイン語、ベトナム語)にまたがる差別・憎悪表現検出が改善されるかどうかを評価する。
- ラベルなしWebデータ上でBERTを継続事前学習し、その後に教師あり微調整を行うことで、16のベンチマークにおいてマクロF1が約3%向上し、特に低リソース設定でより大きな効果が得られる。
- 3種類のLLMアンサンブル注釈手法(平均化、多数決、LightGBMによるメタ学習器)を比較し、LightGBMアンサンブルが一貫して最も良いことを見いだす。
- 合成ラベルで小型モデルを学習すると大きな改善が得られる(例:Llama3.2-1BはプールF1で約+11%)。一方で、大型モデルの改善はわずかである(例:Qwen2.5-14Bは約+0.6%)。
- 著者らは総合的に、Web規模のラベルなしデータとLLMアンサンブル注釈を組み合わせることが、とりわけ小型モデルや低リソース言語に対して有益であると結論づけている。




