ニューラルに解釈される言語による勾配ベースのプログラム合成

arXiv cs.AI / 2026/4/22

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、プログラム合成における長年の課題である「記号的アプローチ」と「ニューラルアプローチ」のトレードオフ(合成性による汎化やデータ効率 vs データからの柔軟な学習だが外挿で弱くなりがち)を扱う。
  • Latent Adaptation Network の一例として、Neural Language Interpreter(NLI)を提案し、離散的でDSLのようなプログラミング言語をエンドツーエンドで学習する。
  • NLIは、変長のプリミティブ列を解釈するために微分可能なニューラル実行器を用い、学習時に見た範囲を超えた複雑な問題に対して計算ステップ数が固定でないプログラム表現を可能にする。
  • Gumbel-Softmax による緩和で離散的・合成的な構造を勾配ベースの最適化に適用し、訓練だけでなくテスト時の強力な適応も微分可能性によって実現する。
  • 実験では、NLIが組合せ的汎化や未見タスクへの迅速な適応を要する課題で、in-context learning、test-time training、連続潜在プログラムネットワーク等のベースラインより優れると報告する。

要旨: プログラム帰納における中核的な課題として、長い間、記号的アプローチとニューラルアプローチの間のトレードオフが問題となってきました。記号的手法は合成的な汎化とデータ効率に優れますが、ドメイン特化言語(DSL)のような形式によって、そのスケーラビリティが制約されます。これらの形式は作成に労力を要し、新しい領域へ移行できない可能性もあります。対照的に、ニューラルネットワークはデータから柔軟に学習できますが、合成的な設定や分布外設定では汎化がうまくいかない傾向があります。私たちは、ニューラル言語インタプリタ(Neural Language Interpreter; NLI)と呼ばれる、潜在適応ネットワーク(Latent Adaptation Network)アーキテクチャの一例によって、この隔たりを橋渡しします。NLIは、自身の離散的で記号的であるかのようなプログラミング言語をエンドツーエンドで学習します。NLIは自律的に基本操作の語彙を発見し、これらの基本操作の可変長系列を解釈するための、新規な微分可能ニューラル実行器(differentiable neural executor)を用います。これにより、NLIは一定数の計算ステップに縛られないプログラムを表現でき、学習時に見られたものよりも複雑な問題を解くことが可能になります。これらの離散的な合成的プログラム構造を、勾配ベース最適化に適した形にするために、Gumbel-Softmaxの緩和を採用し、モデル全体をエンドツーエンドで学習できるようにします。重要なのは、この同じ微分可能性によって強力なテスト時適応が可能になることです。推論では、NLIのプログラム帰納器が初期のプログラム推定を与えます。次に、この推定はニューラル実行器を通じた勾配降下によって洗練され、与えられたデータを最もよく説明するニューラルプログラムを効率的に探索できます。私たちは、NLIが、組合せ的な汎化と、未知のタスクへの迅速な適応を必要とするタスクにおいて、in-context learning、テスト時学習、連続潜在プログラムネットワークのいずれよりも優れていることを示します。これらの結果は、離散言語の合成性と、ニューラルネットワークの勾配ベース探索およびエンドツーエンド学習を組み合わせたモデルに向けた新しい道筋を確立するものです。