大規模言語モデルにおける非逐語的(non-verbatim)記憶の再検討:エンティティの表層表記(surface form)の役割
arXiv cs.CL / 2026/4/24
📰 ニュースModels & Research
要点
- 本論文は、大規模言語モデル(LLM)が事実知識をどのように記憶・参照しているかを調べ、エンティティを表す表層表記(surface form)に依存するのかを焦点にします。
- RedirectQAという新しいエンティティベースのQAデータセットを提案し、Wikipediaのリダイレクト情報を用いて、Wikidataの事実トリプルを複数の表層表現(別名、略語、表記ゆれ、よくある誤り)に結び付けます。
- 13のLLMに対する実験では、エンティティの表層表記だけを変更すると予測結果が変わり得ることが示され、命名に対して完全に不変ではないことを示唆します。
- 影響はカテゴリ依存で、スペルの軽微な揺れには比較的頑健ですが、エイリアスや略語のようなより大きな語彙的変化には弱いことが分かります。
- 周波数分析では、エンティティレベルと表層レベルの双方の頻度が精度と相関し、表層頻度を超えてエンティティ頻度が寄与する場合があることが示されます。


