S^2IT:大規模言語モデルにおけるアスペクト感情クワッド予測のための段階的構文統合チューニング

arXiv cs.CL / 2026/4/28

📰 ニュースTools & Practical UsageModels & Research

要点

  • 本論文は、生成的パラダイムにおいて大規模言語モデルが構文情報をどのように活用できるかを改善し、アスペクト感情クワッド予測(ASQP)に取り組む。
  • S^2IT(Stepwise Syntax Integration Tuning)という枠組みを提案し、多段階の学習を通じて構文知識をLLMへ段階的に組み込む。
  • S^2ITはクワッド生成タスクを、グローバルな構文に導かれた抽出と、ローカルな構文に導かれた分類の2段階に分解する。
  • さらに、要素リンク予測とノード分類による微細な構造チューニングで、モデルの構造理解を深める。
  • 複数データセットで実験を行い、S^2ITが最先端性能を大きく上回ることを示し、実装はオープンソース予定である。

概要: アスペクト感情クワッド予測(ASQP)は、大規模言語モデル(LLM)の強力な意味理解能力と生成能力によって大きな進展を遂げてきました。しかし、これまでの抽出(extractive)パラダイムにおいては構文構造情報が有効であることが証明されている一方で、LLMの生成(generative)パラダイムでは、それらの推論能力が限られているため、構文構造情報が十分に活用されていません。本論文では、多段階のチューニング過程を通じて構文構造の知識を段階的にLLMへ統合する、新しい枠組みS^2IT(Stepwise Syntax Integration Tuning)を提案します。学習プロセスは3つのステップに分かれます。S^2ITは、クワッド生成タスクを2つの段階に分解します:1)グローバル構文に導かれた抽出、2)ローカル構文に導かれた分類。ここでは、グローバルおよびローカルの両方の構文構造情報を統合します。最後に、微細構造チューニング(Fine-grained Structural Tuning)により、要素リンクの予測とノード分類を通じて、モデルの構文構造理解を強化します。実験の結果、S^2ITは複数のデータセットにおいて最先端の性能を大幅に向上させることが示されました。実装は https://github.com/DMIRLAB-Group/S2IT でオープンソースとして公開します。