KUET at StanceNakba Shared Task: StanceMoE: スタンス検出のためのMixture-of-Experts(混合専門家)アーキテクチャ
arXiv cs.CL / 2026/4/3
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、微調整済みBERTエンコーダに基づく、俳優(actor)レベルのスタンス検出のための文脈強化Mixture-of-ExpertsアーキテクチャであるStanceMoEを提案する。
- StanceMoEは、意味的な向き、語彙的手がかり、節/句レベルのパターン、フレーミング指標、対比に駆動された談話上の転換といった、異質な言語的信号を捉えるための6つの専門家モジュールを用いる。
- 文脈に応じたゲーティング機構により、入力テキストの特性に基づいて専門家の出力を動的にルーティングし、重み付けすることで、多様なスタンス表現への対応をより良くすることを目指す。
- StanceNakba 2026 サブタスクAのデータセット(暗黙のターゲットとなる俳優を含む英語テキスト1,401件)での実験により、StanceMoEはマクロF1で94.26%を達成し、ベースラインおよび他のBERTベースの変種を上回る。
- 本研究は、単一の統一表現に依存するトランスフォーマーベースのスタンスモデルの限界に取り組み、談話やフレーミングの多様なパターンを明示的にモデル化する適応的アーキテクチャを主張する。




