否定のある常識知識:否定理解を強化するためのリソース

arXiv cs.CL / 2026/4/23

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • この論文は、否定が自然言語の意味論における重要な要素である一方で、LLMは否定理解を要するタスクでうまく機能しにくいと主張しています。
  • 先行研究にはギャップがあり、常識知識の資源は広く研究されているものの、通常は否定を明示的に取り込んでいない点を指摘しています。
  • 著者らは、既存の常識知識コーパスに自動的に否定を付加する手法を提案し、if-then(もし〜なら)関係として表される2百万件超のトリプルを含む2つの新しいデータセットを作成しました。
  • さらに、否定強化コーパスでLLMを事前学習すると、否定の理解が向上することを示しています。

Abstract

否定は自然言語における一般的かつ重要な意味的特徴であるが、Large Language Models(LLM)は否定が関わる自然言語理解タスクにおいて苦戦する。一方、常識知識は十分に研究されてきたトピックであるにもかかわらず、否定を扱う調査が欠けている。本研究では、否定を伴う常識知識はモデルにとって理解が難しいことを示す。if-then(もし〜なら)関係を持つ2つの新しいコーパスを作成し、既存の常識知識コーパスを否定によって自動的に拡張する新規アプローチを提案する。これにより、200万以上のトリプルを含む2つのコーパスが得られる。さらに、これらのコーパス上でLLMを事前学習することにより、否定の理解が向上することを示す。