概要: 類推推論は、問題解決や議論における人間の一般化を駆動する重要な要因である。しかし、物語の構造間の類比は機械にとって依然として難しい。構造対応(ストラクチャーマッピング)のための認知エンジンは、事前に抽出された実体を前提とするため直接は適用できない。一方で、LLMの性能はプロンプト形式や、物語間における表層的な類似度の程度に敏感である。このギャップは、次の重要な問いを動機づける。すなわち、LLM由来の抽象化によって構造対応を強化した場合、物語におけるそれらの類推推論能力にどのような影響があるのか。そこで本研究では、YARN(Yielding Abstractions for Reasoning in Narratives)というモジュール型の枠組みを提案する。YARNは、LLMを用いて物語をユニットに分解し、そのユニットを抽象化したうえで、それらを対応付けコンポーネントに渡す。このコンポーネントは、物語間で要素を整列させることで類推推論を実行する。私たちは、フレーミングに関する先行研究に基づき、ユニットの一般的な意味と、物語内におけるそれらの役割の両方を捉える4つの抽象化レベルを定義し、具体化する。我々の実験では、抽象化は一貫してモデル性能を向上させ、その結果、エンドツーエンドのLLMベースラインに対して競争力、あるいはそれ以上の性能が得られることがわかった。より近いエラー分析により、適切なレベルでの抽象化、暗黙の因果性の取り込み、そして物語における類推パターンの新たな分類という残された課題が明らかになった。YARNは、コンポーネントの寄与を分析するために、実験設定を体系的に変化させることを可能にし、さらに将来の研究を支援するために、YARNのコードを公開する。
物語における類推推論のためのLLM由来の抽象化による構造マッピングの強化
arXiv cs.CL / 2026/4/1
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、物語構造に対して機械が類推推論を行えるようにするという課題に取り組んでおり、既存の構造マッピング手法が事前に抽出された実体に依存している一方で、LLMはプロンプト形式や表層的な類似性に敏感であることを指摘している。
- YARN(Yielding Abstractions for Reasoning in Narratives)と呼ばれるモジュール型の枠組みを提案し、LLMを用いて物語を単位に分解し、4つに定義された抽象化レベルでそれらの単位を抽象化したうえで、類推推論のために物語間で要素を対応づける。
- 実験の結果、これらのLLM由来の抽象化を用いることで、エンドツーエンドのLLMベースラインと比べて一貫して性能が向上し、競争力、あるいはそれ以上の結果が得られることが示されている。
- 誤り分析では、適切な抽象化の粒度の選択や、暗黙的な因果関係の捉えといった残る困難が明らかになり、物語における類推パターンの新たなタクソノミー(分類体系)が報告されている。
- 著者らは、今後の研究において体系的な実験やコンポーネント単位での分析を促進するため、YARNのオープンコードを提供している。




