ベンガル語(Bangla)分類タスクにおける外在的な性別バイアスの緩和

arXiv cs.CL / 2026/4/13

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、注目度が限られてきた低リソース言語の設定に焦点を当て、ベンガル語の事前学習済み言語モデルにおける外在的な性別バイアスを研究する。
  • 感情、毒性、ヘイトスピーチ、皮肉(サーカズム)の分類のための、手作業で注釈付けされた4つのベンチマークデータセットを導入し、その後、最小ペア(ミニマルペア)によるバイアス評価のために、統制された性別の摂動でそれらを拡張する。
  • 著者らは、対称KLダイバージェンスと交差エントロピー損失を組み合わせた、RandSymKLというランダム化による脱バイアス学習手法を提案し、複数のタスク固有モデルにまたがって、性別に起因する予測の変化を緩和する。
  • 実験では、RandSymKLを既存の脱バイアス手法と比較し、分類精度を競争力のある水準に維持しつつバイアスを低減できることを報告する。
  • 本研究では、実装と構築したデータセットを公開し、ベンガル語における性別バイアス緩和に関する追随研究を可能にする。

Abstract

本研究では、低資源言語においてはほとんど調査されていない領域である、ベンガル語の事前学習済み言語モデルにおける外的ジェンダーバイアスを調査します。バイアスを評価するために、感情分析、毒性検出、ヘイトスピーチ検出、そして皮肉検出のための、タスク特化型の4つの手動注釈付きベンチマークデータセットを構築します。各データセットは、意味内容を保持しながら、性別を表す名前や語句を体系的に置換することで微妙なジェンダーの摂動を加え、ジェンダーに起因する予測の変化を最小対(ミニマル・ペア)で評価できるようにします。続いて、対称KLダイバージェンスと交差エントロピー損失を組み合わせたランダム化による脱バイアス手法であるRandSymKLを提案し、タスク固有の事前学習済みモデル全体にわたってバイアスを緩和します。RandSymKLは、分類タスクに焦点を当てた外的ジェンダーバイアスの軽減のために、これらの要素を統一的に統合する洗練された学習アプローチです。本手法は既存のバイアス軽減手法と比較評価されており、その結果は、本手法がバイアスを効果的に低減するだけでなく、他のベースライン手法と比べても競争力のある精度を維持できることを示しています。さらなる研究を促進するために、実装とデータセットの両方を公開しました: https://github.com/sajib-kumar/Mitigating-Bangla-Extrinsic-Gender-Bias