ExVerus: Verus Proof Repair via Counterexample Reasoning

arXiv cs.LG / 3/30/2026

📰 NewsIdeas & Deep AnalysisModels & Research

Key Points

  • EXVERUSは、失敗したVerusの証明に対して反例(counterexample)を自動生成・検証し、その行動的フィードバックをLLMの推論に取り込む反例ガイド型フレームワークを提案している。
  • 従来のようにソースコード全体から静的に推論するのではなく、反例を一般化して帰納的不変条件(inductive invariants)を作り、同種の失敗を再発させないことを狙っている。
  • 評価では、既存のプロンプトベースのVerus証明生成手法と比べて、証明の正確性・頑健性が向上し、さらにトークン効率も改善したと報告している。
  • この研究は、形式検証におけるLLM利用において、検証器のフィードバックを単なるエラー情報としてでなく“具体的なプログラム挙動(反例)”として活用する方向性を示している。

Abstract

Large Language Models (LLMs) have shown promising results in automating formal verification. However, existing approaches treat proof generation as a static, end-to-end prediction over source code, relying on limited verifier feedback and lacking access to concrete program behaviors. We present EXVERUS, a counterexample-guided framework that enables LLMs to reason about proofs using behavioral feedback via counterexamples. When a proof fails, EXVERUS automatically generates and validates counterexamples, and then guides the LLM to generalize them into inductive invariants to block these failures. Our evaluation shows that EXVERUS significantly improves proof accuracy, robustness, and token efficiency over the state-of-the-art prompting-based Verus proof generator.

ExVerus: Verus Proof Repair via Counterexample Reasoning | AI Navigate