大規模言語モデルの Y-コンビネータ: λ計算で Long-Context Rot を解く

arXiv cs.LG / 2026/3/23

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は lambda-RLM を紹介する。λ計算に基づく型付き関数型ランタイムで、長文脈推論のための事前検証済み組み合わせ子のコンパクトなライブラリにより、自由形式の再帰的コード生成を置換する。
  • 標準的な RLM にはない正式な保証を提供する。終了性、閉形式のコスト界、再帰深さに伴う精度スケーリングの制御、そして単純なコストモデルの下での最適な分割規則を含む。
  • 実証的には、4つの長文脈推論タスクと9つのベースモデルにまたがり、lambda-RLM は標準の RLM を 36 件中 29 件のモデル-タスク比較で上回り、精度は最大で +21.9 ポイント、レイテンシは最大で 4.1 倍削減。
  • 完全な実装は以下のオープンソースリポジトリで公開されています: https://github.com/lambda-calculus-LLM/lambda-RLM

概要: LLMs は一般用途の推論器としてますます用いられていますが、長い入力は固定された文脈ウィンドウによって依然としてボトルネックとなっています。
再帰言語モデル(RLM)は、プロンプトを外部化し、サブ問題を再帰的に解くことでこれに対処します。
しかし既存のRLMは、モデルが任意の制御コードを生成するオープンエンドなリード・エヴァリュエート・プリント・ループ(REPL)に依存しており、実行の検証、予測、分析を困難にします。
私たちは、長文脈推論のためのフレームワークである \lambda-RLM を導入します。これは、自由形式の再帰コード生成を、\lambda-計算に基づく型付き関数実行環境に置き換えます。
それは、事前検証済みのコンビネータのコンパクトなライブラリを実行し、境界で制限されたリーフ部分問題にのみニューラル推論を用いることで、再帰的推論を明示的な制御フローを備えた構造化された関数型プログラムへと変換します。
我々は、\lambda-RLM は、標準的な RLM には存在しない形式的保証を認めることを示します。これには、停止性、閉形式のコスト境界、再帰深さに応じた精度の制御可能なスケーリング、そして単純なコストモデルの下での最適な分割規則が含まれます。
経験的には、4つの長文脈推論タスクと9つの基本モデルに跨って、\lambda-RLM は標準の RLM を、36件のモデル-タスク比較のうち29件で上回り、モデル階層全体で平均精度を最大で+21.9ポイント向上させ、レイテンシを最大で4.1倍低減します。
これらの結果は、型付きの記号的制御が、オープンエンドな再帰コード生成よりも長文脈推論のために、より信頼性が高く効率的な基盤を提供することを示しています。
\lambda-RLM の完全な実装は、コミュニティ向けにオープンソースとして公開されています:https://github.com/lambda-calculus-LLM/lambda-RLM.

返却形式: {"translated": "翻訳済みHTML"}