セマンティクスを超えて:小規模言語モデルによる機械翻訳で細かな感情を保持する度合いの測定

arXiv cs.CL / 2026/5/1

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、小規模言語モデル(EuroLLM、Aya Expanse、Gemma)が、機械翻訳において感情の細かなニュアンスをどれだけ保持できるかを検証し、意味の同等性だけでなく情動の忠実性に焦点を当てています。
  • GoEmotionsデータセット(Redditコメントを28の感情カテゴリでラベル付け)とバックトランスレーション手法を用いて、5つの欧州言語(ドイツ語、フランス語、スペイン語、イタリア語、ポーランド語)にわたる感情保持を評価します。
  • モデル固有の感情保持能力がどの程度か、さらに感情を意識したプロンプトが感情の忠実性を高められるかを調べます。
  • MT評価を支える感情分類器として、BERTの代替としてModernBERTの性能も評価します。
  • 総じて、本研究は意味の同等性だけではなく「感情の保持」に特化した評価フレームワークと比較結果を提示しています。

Abstract

感情的なニュアンスを保持することは、機械翻訳(MT)において依然として課題です。そこではしばしば意味の同等性が、感情の忠実性よりも優先されます。本論文では、3つの最先端の小型言語モデル(SLM)――EuroLLM、Aya Expanse、Gemma――の性能を、逆翻訳における細かな感情の維持という観点で評価します。28の異なるカテゴリにわたるRedditのコメントから構成されるGoEmotionsデータセットを用い、5つのヨーロッパ言語、すなわちドイツ語、フランス語、スペイン語、イタリア語、ポーランド語にわたる感情の保持を評価します。具体的には、(i) これらのSLMが感情的なセンチメントを保持するうえで備えている本来的な能力、(ii) 感情を意識したプロンプトが保持の改善にどれほど有効か、(iii) MT評価における感情分類のための、BERTに代わる現代的な手法としてのModernBERTの性能――を調査します。