要旨: プロダクションエージェントフレームワーク(OpenAI Function Calling、Anthropic Tool Use、MCP)は、ツールスキーマをJSONとして送信しますが、この形式は機械による解析向けであり、言語モデルによる解釈向けではありません。小型モデル(4B-14B)では、このプロトコルの不一致が、プロダクションのカタログ規模におけるツール利用失敗の大半を占めています。本稿では、API境界でこの不一致を解消する決定論的なツールスキーマコンパイラであるTSCGを提示します。TSCGは、モデルアクセス、ファインチューニング、実行時の探索を行うことなく、JSONスキーマをトークン効率の高い構造化テキストへ変換します。TSCGは8つの合成可能な演算子を組み合わせ、形式的な圧縮の上界(適切なスキーマに対して>=51%)を備えています。
TSCG-Agentic-Bench(約19,000回の呼び出し、12モデル、5シナリオ)では、TSCGによりPhi-4 14Bの精度が0%から84.4%へ回復します(20ツールで90.3%、50ツールで90.3%)。またBFCLの3つのモデルにおいて、108-181%の「精度維持比率」を達成します。フォーマット対圧縮の分解(R^2=0.88 -> 0.03)により、表現の変化が主要なメカニズムであることが示されます。最前線の3つのモデルに対する演算子ごとの分離分析では、3つの異なる演算子応答プロファイルが明らかになります:演算子を渇望する型(Opus 4.7)、演算子に敏感な型(GPT-5.2)、および演算子に頑健な型(Sonnet 4)。これにより、モデルごとのデプロイメント指針を提供します。スケーリング実験では、軽量な合成カタログで飽和が見られる一方、重いプロダクションのMCPスキーマにおいて精度の優位が維持され(入力約10,500トークンで+5.0pp)、全体を通じて52-57%のトークン削減が得られます。合成ベンチマークは、現実のMCPスキーマに対しても精度差0.1点以内で一般化します。TSCGは、1,200行のゼロ依存TypeScriptパッケージとして提供されます。
TSCG:エージェント型LLM導入のための決定的ツール・スキーマ・コンパイル
arXiv cs.AI / 2026/5/7
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- この論文は、OpenAI Function Calling や Anthropic Tool Use、MCP などの一般的なプロダクション向けエージェント・ツールプロトコルがJSON形式でツール・スキーマを送る一方、その形式はLLMが解釈するためのものではなく、特に小型モデルでは現実的なカタログ規模でのツール利用失敗の大半がこの不一致によって生じると主張しています。
- 提案するTSCGは、JSONスキーマをAPI境界でLLM向けのトークン効率の高い構造化テキストへ変換する決定的なツール・スキーマ・コンパイラであり、モデルアクセス、微調整、実行時検索を不要にしながらミスマッチを解消します。
- TSCG-Agentic-Bench(約19,000回の呼び出し、12モデル、5シナリオ)での実験では、Phi-4 14Bの精度が大幅に回復し(20ツールで0%から84.4%、50ツールで90.3%)、さらに52〜57%のトークン削減も確認されています。
- 解析の結果、改善の主要因は表現(representation)の変更であることが示され、演算子ごとの分析によりフロンティアモデルごとに異なる演算子応答プロファイルが見つかり、導入設計の指針になります。
- 合成ベンチマークから実際のMCPスキーマへの汎化も精度差0.1以内で成立し、提供物は依存関係なしのTypeScriptパッケージ(約1,200行)です。



