スケーラブルな表データが一般的な長文コンテキスト推論をどのように強化するかを探る

arXiv cs.CL / 2026/3/24

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、LLMの長文コンテキスト推論を改善するデータの種類について調査し、特に周期的な構造を持つ構造化表データが大きな効果をもたらし得ることを明らかにしています。
  • 相互情報量を用いて表形式データの依存関係構造を数学的に分析し、消えずに周期的に現れる依存が有力なメカニズムであることを特定しています。
  • 著者らはスケーリング実験および検証研究を実施し、構造化表データを追加することで長文コンテキスト推論能力が有意に向上することを示しています。
  • さらに、多様で高品質かつ検証可能な構造化表データを生成するためのスケーラブルなデータ合成パイプライン「TableLong」を提案し、その後にRLによるポストトレーニングを行います。
  • 実験の結果、複数の長文コンテキストベンチマークで平均+8.24%、ドメイン外ベンチマークで平均+8.06%の向上が得られ、一般化性能の改善が示唆されます。

要旨: 現実世界のタスクがますます複雑になるにつれ、長文コンテキストに基づく推論は、大規模言語モデル(LLM)にとって中核となる能力になってきています。しかし、どのデータ型が長文コンテキスト推論に有効で、なぜ有効なのかを探る研究はほとんどありません。私たちは、周期的な構造をもつ構造化テーブルデータが、長文コンテキスト推論に強い可能性を示すことを見出しました。この観察に動機づけられ、相互情報量を用いて、テーブルデータの表形式の依存関係構造を数学的に解析し、表データにおいて周期的に消えない(非ゼロの)依存関係が存在することを明らかにします。さらに、構造化テーブルデータの能力を体系的に分析し、関連するスケーリング実験を行い、そのメカニズムが長文コンテキスト推論を強化する根本にあることを検証することで、いくつかの有意義な洞察を得ます。これらの洞察を活用し、RLによって長文コンテキスト推論を後押しするために、高品質で多様かつ検証可能な構造化テーブルデータを合成する、シンプルでスケーラブルなパイプライン(TableLong)を提案します。大規模な実験結果により、テーブルデータが、複数の長文コンテキスト・ベンチマーク全体でLLMの長文コンテキスト推論能力を大きく向上させることが示されています(平均 +8.24%)。さらに、ドメイン外ベンチマークでも性能が改善し(平均 +8.06%)、その効果が確認されます。私たちは、これらの洞察が、LLMの長文コンテキスト推論を強化するための効果的な事後学習データに関する実践的な指針を提供できることを願っています。