Universal NER v2:大規模に多言語対応した固有表現認識ベンチマークに向けて

arXiv cs.CL / 2026/4/15

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • Universal NER v2 は、ゴールドスタンダードの、大規模に多言語対応した固有表現認識(NER)ベンチマークデータセットを拡張し、洗練することで、多くの言語にわたって多言語言語モデルをより適切に評価することを目指しています。
  • このプロジェクトは、Universal Dependencies のような類似の取り組みに触発されつつ、汎用タグセットと詳細なアノテーション指針に基づいて、標準化された言語横断(クロスリンガル)の NER アノテーションを構築します。
  • Universal NER は複数年にわたって継続しており、2024 年に初回リリース(UNER v1)が行われ、その後も運営者、アノテータ、協力者によるコミュニティの貢献が続いています。
  • この取り組みは、重要なギャップを対象としています。すなわち、多くの言語において、多言語 LLM の恩恵に関する仮定を検証できる高品質な評価ベンチマークが不足していることです。

要旨: 多言語の言語モデルは、LLMの利点を多くの言語の話者にももたらすと期待されていますが、これらの仮定を検証するための、ほとんどの言語におけるゴールドスタンダードの評価ベンチマークは依然として乏しいのが現状です。Universal NERプロジェクトは、現在第4年目に入っており、多言語の固有表現認識(NER)のゴールドスタンダード評価用ベンチマークデータセットを構築することに専念しています。他の中核となるNLPタスク向けの、既存の非常に多言語的な取り組み(例:Universal Dependencies)に着想を得て、このプロジェクトでは一般的なタグ体系と、徹底した注釈ガイドラインを用いることで、固有表現のスパンに関する標準化された、言語横断的な注釈を収集します。最初の成果(UNER v1)は2024年に公開され、その後もさまざまな運営者、注釈者、協力者による活発なコミュニティによって継続され、拡張が進められてきました。