LLMに対する文脈依存の制御を学習・強制する

arXiv cs.CL / 2026/4/14

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLM出力に対する文脈依存の制御制約を自動的に学習するための枠組みを提案し、従来手法が抱えていた制約の手動指定という負担を解消することを目的としています。
  • 2段階のパイプラインを用います。まず学習のために構文的探索によって多様なモデル出力を収集し、次に制約活用によって生成中に学習したルールを強制します。
  • 実験の結果、この手法は小規模な1BパラメータのLLMでも制約遵守を完全に達成できることが示され、報告によれば、より大きなモデルや一部の最先端の推論システムよりも優れています。
  • 著者らは、文脈依存の文法学習をLLM生成に直接統合する点で初の試みだと主張しており、手作りの制約を用いることなく生成の妥当性を保つことを目指しています。

Abstract

文脈に応じた制約によって大規模言語モデル(LLM)の出力を制御することは、生成妥当性を保証する点での文脈自由文法(CFG)の限界を克服するための有望なアプローチとして注目されている。しかし、そのような制約は通常、手動による指定を必要とします――これは専門的な知識を要するため、大きな障壁となります。そこで本研究では、LLMとのやり取りから二段階プロセスによって文脈に応じた制約を自動的に学習する枠組みを提案します。具体的には、制約学習のために多様な出力を収集するための統語的探索と、その後、生成時に学習した規則を適用して強制するための制約活用です。実験の結果、提案手法により、たとえ小規模なLLM(10億パラメータ)であっても、完全な制約順守を伴って学習し生成できることが示されました。さらに、大規模な対応モデルや最先端の推論モデルを上回ります。本研究は、文脈に応じた文法の学習をLLM生成へ初めて統合するものであり、手動による指定を不要にしつつ、生成の妥当性を維持します。

LLMに対する文脈依存の制御を学習・強制する | AI Navigate