広告

組合せ最適化のための実現不可能性(不可能性)を考慮した大規模言語モデル

arXiv cs.LG / 2026/4/3

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、NP困難な組合せ最適化に対するほとんどのLLMアプローチが、実行可能解の探索に注力している一方で、実現不可能性(不可能性)を検出し、かつそれを証明(認証)するための明示的な仕組みを欠いていると主張する。
  • 実現不可能性を考慮した枠組みとして、証明可能な学習データセットを構築し、教師あり微調整を行い、さらにLLM支援による後段の探索を適用することを提案する。
  • マイナー埋め込み問題(minor-embedding)に対して、著者らは新しい数学的計画法の定式化を導入し、訓練インスタンスを「実行可能(証明書付き)」または「証明可能な実現不可能(不可能)」としてラベル付けできる、証明可能なゼロ位相の実現不可能性スクリーニングを可能にする。
  • この正確にパイプラインで生成されたデータを用いて、8B(8 billion)パラメータのLLMを微調整し、解の生成と実現不可能性の検出の両方を行えるようにする。
  • 実験では、微調整済みモデルがGPT-5.2およびLLMによるウォームスタートに比べて最大30%精度を改善し、さらにLLMの出力が不完全であっても、後段の局所探索において最大2倍の高速化が得られることを示す。

概要: 大規模言語モデル(LLM)は、NP困難な組合せ最適化問題に対してますます検討されているが、既存のほとんどの手法は実行可能なインスタンスの解生成を重視しており、不可能性(infeasibility)の検出を明示的に扱っていない。そこで本研究では、証明可能なデータセット構築、教師ありファインチューニング、そしてLLM支援による下流探索を組み合わせた、不可能性を考慮した枠組みを提案する。マイナー埋め込み(minor-embedding)問題に対しては、新しい数学的計画法の定式化を導入するとともに、証明可能なゼロ相不可能性スクリーニング(provable zero-phase infeasibility screening)を実現する。これにより、学習用インスタンスを大規模に構築でき、構造化された証明(certificate)を伴う実行可能(feasible)としてラベル付けされたもの、または証明可能に不可能(certifiably infeasible)としてラベル付けされたものの両方を扱える。厳密な最適化パイプラインによって生成された学習データを用いて、8B(80億)パラメータのLLMを、解生成と不可能性検出を同時に行うようにファインチューニングできることを示す。さらに、下流の局所探索においてLLMの出力をウォームスタートとして利用することで、LLMの出力が不完全であっても最適化を加速する実用的な方法を提供する。実験の結果、ファインチューニングしたモデルはGPT-5.2に比べて全体の精度を最大30\%向上させる一方、LLMに導かれたウォームスタートは、下流の局所探索においてゼロから開始する場合と比べて最大2\timesの速度向上をもたらすことが分かった。

広告