AI Navigate

スキーマ認識型NL2SQL生成のためのエージェント主導システム

arXiv cs.CL / 2026/3/20

💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research

要点

  • 著者らは、スキーマベースのエージェント型NL2SQLシステムを提案し、小型言語モデルを主要なエージェントとして使用し、エラーが検出された場合にのみ大規模言語モデルを呼び出すことで、計算オーバーヘッドを削減します。
  • このシステムは大幅なコスト削減を達成し、ローカルの小型言語モデル(SLM)で約67%のクエリを解決し、クエリあたりの平均コストを0.094から0.0085へ低減しました。
  • BIRDベンチマークでは、実行精度が47.78%、検証効率スコアが51.05%に達し、資源使用を抑えつつ実用的な効果を示しています。
  • 本設計は資源制約下でのデプロイを想定し、ローカルで実行されるクエリの運用コストをほぼゼロに近づけることを目指し、LLM中心アプローチのプライバシーとデプロイ性の懸念に対処します。
  • 実装と再現性のためのGitHubリポジトリが提供されています。

概要: 自然言語からSQLへの(NL2SQL)タスクは、直感的な言語を通じて非専門家のユーザーがリレーショナルデータベースと対話できるようにすることで、データアクセスの民主化において重要な役割を果たします。近年のフレームワークはタスク特化によって翻訳精度を高めていますが、大規模言語モデル(LLMs)への依存は、計算オーバーヘッド、データプライバシー、資源制約下での実用性といった重要な懸念を引き起こします。これらの課題に対処するため、スキーマに基づくエージェント型システムを提案します。主要なエージェントとして小型言語モデル(SLMs)を戦略的に用い、選択的なLLMフォールバック機構を補完します。SLMが生成した出力の誤りが検出された場合にのみLLMを呼び出します。提案するシステムは計算コストを大幅に削減します。BIRDベンチマークにおける実験結果は、我々のシステムが実行精度47.78%、検証効率スコア51.05%を達成し、約67%のクエリがローカルのSLMsを用いて解決されることから、LLM中心のベースラインと比較してコストを90%以上削減できることを示しています。システムは、LLMのみのシステムが0.094のコストであるのに対し、クエリあたりの平均コストを0.0085と達成しており、ローカルで実行されるクエリの運用コストをほぼゼロに近づけます。 [GitHubリポジトリ: https://github.com/mindslab25/CESMA.]