要旨: 換喩検出モデルは強力なベンチマーク性能を達成する一方で、それが転移可能な汎化を反映しているのか、語彙の記憶(レキシカル・メモライゼーション)によるものなのかは依然として不明である。本研究では、最先端の多くのシステムで共有されているバックボーンであるRoBERTaを用いて、VUアムステルダム換喩コーパス上で、英語の動詞に焦点を当て、換喩検出における汎化を分析することでこの点に取り組む。選択した対象の語彙(レマ)に含まれるすべての実例を、微調整(fine-tuning)から厳密に除外する、統制された語彙のホールドアウト設定を導入し、これらのホールドアウトレマに関する予測を、(微調整中に見られた)公開済みレマ(Exposed lemmas)と比較する。モデルは公開済みレマで最良の性能を示すが、ホールドアウトレマでも頑健な性能を維持する。さらに分析の結果、ホールドアウトレマにおける完全モデルの性能に一致させるには文脈(文の状況)だけで十分であるのに対し、静的な動詞レベル埋め込みはそうではないことが明らかになった。これらの結果は、汎化が主として「合図を学ぶこと」(転移可能な文脈パターンを学習すること)によって駆動される一方で、「語を学ぶこと」(動詞固有の記憶)が、語彙の露出が利用可能である場合に追加的なブーストを与えることを示唆している。
合図を学ぶのか、それとも単語を学ぶのか?動詞の比喩検出における一般化を分析する
arXiv cs.CL / 2026/4/16
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、最先端の比喩検出モデルが、転移可能な文脈パターンによって一般化するのか、それとも動詞の語彙を記憶することに依存するのかを検証する。
- 共通のバックボーンとしてRoBERTaを用い、VU Amsterdam Metaphor Corpusを使用して、対象となる動詞の語根レムマを微調整から除外する語彙ホールドアウト実験を行い、「既知の動詞」と「未見の動詞」での性能を比較する。
- 結果は、モデルが既知レムマで最も高いスコアを示す一方で、未見レムマでも堅牢な性能を維持しており、見たことのない語を超えた意味のある一般化が示される。
- 追加分析では、文の文脈特徴は、未見レムマに関する全モデルの性能をかなり再現できるが、静的な動詞レベルの埋め込みはそれができないことが分かる。
- 以上の知見は、一般化の主たる要因として「合図を学ぶ(learning the cue)」という見方を支持しており、「単語を学ぶ(learning the word)」は、語彙への曝露がある場合に加算的な利点として働く。




