要旨: 小型言語モデル(SLM)のエンタープライズ導入は、認識論的非対称性によって制約されます。すなわち、SLMは推論エラーを自己修正できない一方で、最前線(フロンティア)のLLMは費用が過剰であり、大量利用においてデータ主権の制限にも直面します。そこで本研究では、SGDe(Semantic Gradient Descent;意味勾配降下)を提案します。これは、エージェント的ワークフローを、DAGトポロジ、システムプロンプト、そして決定論的な実行可能コードからなる離散的な実行計画へコンパイルする教師—生徒フレームワークです。末尾の「e」は、SGDeを確率的勾配降下法(stochastic gradient descent)と区別するためのものです。SGDeは、離散的な意味空間上で動作し、フロンティア教師が自然言語による批評を生成して、それを方向勾配として用いることで、SLMのワークフローのアーティファクトを逐次的に洗練させます。私たちは、PAC学習の枠組みの中でSGDeを形式化し、教師を統計的事前分布として活用することで、対象とする合成タスクにおいて訓練例がわずか3つでも収束を可能にするサンプル複雑性の上界を示します。敵対的合成によって構築されたGSM-Hard由来のテストセットでは、コンパイルされたワークフローが、小さなmの領域で、m=5のとき91.3%の精度、m=3のとき99.3%の精度を達成します。これは、補題1(Corollary 1)により動機づけられた領域です。これは、最先端のプロンプト最適化手法に対して、絶対的な改善が+26.3%から+34.3%です。
エマージングなパラダイムであるハーネス・エンジニアリングにおいて、SGDeは、決定論的コード(Python実行ランタイムへ委任するべきサブタスクと、LLM呼び出しとして保持するべき部分)をどこに配置するかを、トレース駆動の、ノードごとの最適化目標として扱います。これは、PALおよびPoTによる問題全体のオフロードを一般化したものです。教師は、互いに補完的な2つの決定論的構造をコンパイルします。すなわち、能力オフローディングは、SLMがそれらを信頼性高く実行できない場合にサブタスクをPythonへ委任し、構造的コンセンサスは、分散が制限された推論ステップをファンアウト/ファンインのサブグラフで包み、決定論的な投票によって集約します。
決定的な構造をSLMハーネスにコンパイルする
arXiv cs.AI / 2026/4/21
📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- この論文は、SLM(小型言語モデル)の自己修正が難しいという推論上の非対称性と、より大規模なフロンティアLLMのコストやデータ主権上の制約を背景に、企業導入の課題に取り組みます。
- Semantic Gradient Descent(SGDe)として、エージェント的ワークフローをDAG構成、システムプロンプト、決定的コードからなる離散的な実行計画へコンパイルする、教師—生徒の枠組みを提案します。
- SGDeでは、フロンティア教師が自然言語による批評(critique)を生成し、それを“方向勾配”として扱って、SLMのワークフロー成果物を離散的な意味空間で反復的に改善します。
- さらにSGDeをPAC学習の枠組みで形式化し、教師を統計的な事前分布として活用することで、ターゲットとする合成タスクでは3つの学習例という少数で収束するためのサンプル複雑性の境界を示します。
- 実験では、敵対的合成によって作られたGSM-Hard派生のベンチマークで高い精度(m=5で91.3%、m=3で99.3%)と、既存のプロンプト最適化手法に対する大幅な改善を報告し、Pythonランタイムへの委譲(capability offloading)と決定的な投票による構造的合意(structural consensus)の2つの決定的構造を支えとして示しています。




