広告

KUET at StanceNakba Shared Task: StanceMoE: スタンス検出のためのMixture-of-Experts(混合専門家)アーキテクチャ

arXiv cs.CL / 2026/4/3

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、微調整済みBERTエンコーダに基づく、俳優(actor)レベルのスタンス検出のための文脈強化Mixture-of-ExpertsアーキテクチャであるStanceMoEを提案する。
  • StanceMoEは、意味的な向き、語彙的手がかり、節/句レベルのパターン、フレーミング指標、対比に駆動された談話上の転換といった、異質な言語的信号を捉えるための6つの専門家モジュールを用いる。
  • 文脈に応じたゲーティング機構により、入力テキストの特性に基づいて専門家の出力を動的にルーティングし、重み付けすることで、多様なスタンス表現への対応をより良くすることを目指す。
  • StanceNakba 2026 サブタスクAのデータセット(暗黙のターゲットとなる俳優を含む英語テキスト1,401件)での実験により、StanceMoEはマクロF1で94.26%を達成し、ベースラインおよび他のBERTベースの変種を上回る。
  • 本研究は、単一の統一表現に依存するトランスフォーマーベースのスタンスモデルの限界に取り組み、談話やフレーミングの多様なパターンを明示的にモデル化する適応的アーキテクチャを主張する。

Abstract

アクター・レベルのスタンス検出は、テキスト内で言及される、または言及されていることが示唆される特定の地政学的アクターに対して、著者が表明した立場(位置づけ)を特定することを目的とする。トランスフォーマーベースのモデルはスタンス分類において比較的良好な性能を達成しているものの、一般に、対比的な談話構造、フレーミングの手がかり、重要な語彙的指標といった異質な言語的信号を十分に捉えられない可能性のある統一表現に依存している。したがって、多様なスタンス表出パターンを明示的にモデル化する適応的アーキテクチャの必要性がある。本論文では、アクター・レベルのスタンス検出のために微調整したBERTエンコーダを基盤とする、文脈強化型 Mixture-of-Experts(MoE)アーキテクチャである StanceMoE を提案する。我々のモデルは、グローバルな意味的オリエンテーション、顕著な語彙的手がかり、節レベルの焦点、句レベルのパターン、フレーミングの指標、対比に駆動された談話の転換といった、補完的な言語的信号を捉えるために設計された6つのエキスパート・モジュールを統合する。文脈に応じたガーティング機構により、入力特性に基づいてエキスパートへのルーティングを動的に行い、各エキスパートの寄与度を重み付けできる。実験は、対象アクターがテキスト内に暗黙的に含まれる、英語の注釈付きテキスト1,401件からなる StanceNakba 2026 サブタスクAデータセットで実施する。StanceMoE はマクロF1スコア94.26%を達成し、従来のベースラインおよびBERTベースの別バリアントを上回る。

広告