意味役割ラベリングを再考:依存関係に基づく推論による効率的な構造推論

arXiv cs.CL / 2026/5/5

📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research

要点

  • この論文は、LLMで一般的な暗黙的な意味表現に頼るのではなく、述語—引数(述語-目的語等)の関係を明示する構造化された意味役割ラベリング(SRL)を再検討する。
  • 述語—引数の明示的な構造を維持しつつ、推論を最大10倍高速化できる近代的なエンコーダベースのSRLフレームワークを提案する。
  • BERT-baseでは予測性能が従来と同等の水準に到達し、同一フレームワークのままRoBERTaやDeBERTaに置き換えることでF1がさらに向上する。
  • 依存関係に基づく診断手法と表現レベルの分析により、依存キューは主に構造の安定性を高めることを示す。
  • さらに、明示的な述語—引数構造が下流タスクとして多言語SRL投影を支援できることを実例で示す。

要旨: 意味役割付与(Semantic Role Labeling; SRL)は、述語-項構造を明示的に表現し、「誰が誰に何をしたか」のような言語学的に根ざした関係を捉えます。近年のNLPの進展は大規模言語モデル(LLM)によって主に牽引されてきましたが、これらのシステムはしばしば暗黙的な意味表現に依存しており、明示的な構造的制約や系統的な説明メカニズムを欠いていることが多いです。従来、SRLシステムはしばしばAllenNLPに依存してきましたが、このフレームワークは2022年12月にメンテナンスモードへ移行され、進化するエンコーダ・アーキテクチャや現代的な推論要件との互換性が制限されました。そこで本稿では、構造化SRLモデリングを再検討し、明示的な述語-項構造を維持しつつ推論を10倍高速化できる、近代化されたエンコーダベースの枠組みを導入します。BERT-baseを用いることで、本モデルは同等の予測性能を達成し、同一の枠組みの中でRoBERTaおよびDeBERTaによりF1性能がさらに向上します。本研究では、依存関係に基づく診断手法を採用してスパン・レベルの不整合を特徴づけ、依存関係に基づく構造的シグナルのもとでのLLM挙動について表現レベルの分析を行います。その結果、依存キューが主に構造の安定性を改善することが示されます。最後に、この枠組みの明示的な述語-項構造が、下流応用として多言語SRLの射影をどのように支援できるかを示します。