要旨: アスペクトベース・センチメント分析(ABSA)システムは、感情の極性を特定する点で高い精度を達成してきた一方で、しばしば「ブラックボックス」として振る舞い、人間の情動的認知に特有の明示的な推論能力を欠いています。人間は単に感情を分類するのではなく、その判断に対する因果的な説明を構築します。このギャップを埋めるために、本研究では「reason-before-predict」(予測の前に理由を述べる)という認知プロセスを模倣する、大規模言語モデルの枠組みであるABSA-R1を提案します。強化学習(RL)を活用することで、ABSA-R1は「何を」を超えて「なぜ」を言語化することを学び、感情予測の根拠となる自然言語による正当化文を生成します。さらに、(従来の)センチメント認識型報酬モデルに相当する「認知整合型報酬モデル」(Cognition-Aligned Reward Model)を導入し、生成された推論の経路と最終的な感情ラベルとの間の一貫性を強制します。加えて、メタ認知的モニタリングに着想を得て、性能に基づくリジェクション・サンプリング戦略を実装し、モデルの内部推論が不確か、または一貫性を欠くような難しいケースを選択的に対象とします。4つのベンチマークにおける実験結果は、この明示的推論能力を備えたモデルが、解釈可能性を高めるだけでなく、推論しないベースラインと比べて、感情分類およびトリプレット抽出においても優れた性能をもたらすことを示しています。
予測から正当化へ:強化学習によって感情推論を人間の根拠と整合させる
arXiv cs.AI / 2026/4/16
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、アスペクトベースの感情分析(ABSA)モデルはしばしば高い精度を持つ一方で、感情ラベルの背後にある明示的で人間らしい因果的推論を欠いていると主張する。
- ABSA-R1として、大規模言語モデルの枠組みを提案し、「予測の前に理由を述べる(reason-before-predict)」というパラダイムに従って、感情を出力する前に自然言語の正当化を生成する。
- 強化学習において、モデルの推論経路と最終的な感情ラベルとの整合性を強制するために、認知整合型報酬モデル(Cognition-Aligned Reward Model)を導入する。
- メタ認知的モニタリングに着想を得た、性能駆動型の拒否サンプリング戦略を追加し、内部推論が不確か、あるいは矛盾しているような難しいケースに生成を集中させる。
- 4つのベンチマークでの実験により、明示的な推論を追加することで、解釈可能性と、下流の感情分類/トリプレット抽出の両方が、推論なしのベースラインよりも改善することが示される。




