Compliance-by-Construction Argument Graphs: 証明書グレードの説明責任のために、生成AIを用いて証拠に連結された形式的な議論を生成する

arXiv cs.AI / 2026/4/7

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、生成AIワークフローと、形式的で証拠に連結された議論構造を組み合わせることで、重大な意思決定システムに対する「証明書グレード」の説明責任ニーズに取り組む。
  • 「compliance-by-construction(構築による適合)」というアーキテクチャを提案し、AI支援による各主張は、検索による根拠付け(retrieval-grounding)と、明示的な推論制約に対する厳格な検証の後にのみ、意思決定記録へ追加される。
  • この手法では、(アシュアランスケースに触発された)議論グラフ表現、証拠に根拠付けられた草案作成のためのリトリーバル拡張生成(retrieval-augmented generation)、そして完全性と許容性(admissibility)を強制する推論/検証カーネルを用いる。
  • 監査可能性を可能にするため、W3C PROV標準に整合したプロヴェナンス・レジャー(出所台帳)を追加し、正当化の手順を追跡してレビューできるようにする。
  • 著者らは、強制可能な不変条件(enforceable invariants)を用いたシステム設計と評価戦略を概説し、決定論的な検証によって支持されていない(ハルシネーションを含む)主張を遮断しつつ、議論構築を高速化できることを示唆する。

Abstract

重大な判断システムでは、説明責任と規制遵守を確実にするため、構造化された正当化、追跡可能性、監査可能性がますます求められています。安全性に重大なシステムの認証において一般的に用いられる形式的な論証は、検証可能な形で主張、推論、証拠を構造化するための仕組みを提供します。同時に、生成的人工知能(Generative AI)システムは、判断支援のワークフローへますます統合されており、説明文の作成、証拠の要約、推奨の生成を支援しています。しかし、現在の導入では、多くの場合、言語モデルがゆるく制約されたアシスタントとして利用されているため、幻覚を伴う推論、裏付けのない主張、弱い追跡可能性といったリスクが生じます。本論文は、生成的人工知能(GenAI)を構造化された形式的論証表現と統合する「構成による遵守(compliance-by-construction)」アーキテクチャを提案します。このアプローチでは、AI支援の各ステップを、検証可能な証拠によって裏付けられ、公式な判断記録の一部になる前に明示的な推論制約に照らして検証されるべき主張として扱います。アーキテクチャは4つのコンポーネントを組み合わせます。i) 保証ケース(assurance-case)手法に触発された、型付きの論証グラフ表現、ii) 権威ある証拠に基づいて論証の断片を下書きするための検索拡張生成(RAG)、iii) 完全性および許容可能性の制約を強制する推論・検証カーネル、iv) 監査可能性を支えるためにW3C PROV標準に整合したプロヴェナンス台帳です。強制可能な不変条件と、作業例(worked examples)に基づくシステム設計および評価戦略を提示します。分析の結果、決定論的な検証ルールによって、裏付けのない主張が判断記録に入るのを防ぎつつ、GenAIによって論証構築を加速できることが示唆されます。