Just Pass Twice:LLMによるゼロショットNERのための効率的なトークン分類
arXiv cs.CL / 2026/4/8
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文では、因果(causal)型LLMは、左から右への(因果的)注意(attention)により将来の文脈が必要となる曖昧性解消の場面で、NERにおけるゼロショットのトークン分類が難しいことを説明している。
- 提案手法「Just Pass Twice(JPT)」は、入力文を自身と連結し、その2回目のパスでトークンがモデル構造を変更することなく、双方向の文脈全体を効果的に参照できるようにする。
- JPTは、双方向に情報を反映した表現と、定義に導かれたエンティティ埋め込み(entity embeddings)を組み合わせることで、エンティティ型をまたいだ柔軟なゼロショット汎化を向上させる。
- ゼロショットNERベンチマーク(CrossNERおよびMIT)において、本手法は先行最高手法に対する平均+7.9 F1の改善として、最先端の性能を報告している。
- さらに、本手法は比較対象となる生成的デコーディングベースのNER手法より20倍以上高速であると主張されており、遅い自己回帰生成、幻覚的なエンティティの生成、フォーマットエラーといった問題も低減する。