制度(インスティテューショナル)推論のための統治型アーキテクチャ

arXiv cs.AI / 2026/4/14

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、制度における意思決定(例:コンプライアンス、臨床トリアージ、事前承認の異議申し立て)には、汎用の会話エージェントとは異なるAIアーキテクチャが必要だと主張する。なぜなら、エージェントは人のレビューを誘発せずに「サイレント」な誤りを起こし得るからである。
  • 「Cognitive Core(認知コア)」を提案する。これは、9つの型付き認知プリミティブから構成される統治された意思決定基盤であり、さらに4層の統治モデルを備える。人によるレビューは事後のチェックとして適用されるのではなく、実行の段階で必須となる。
  • Cognitive Coreには、信頼できる説明責任を支えるための、内生的で改ざん検知可能なSHA-256ハッシュチェーン監査台帳が含まれる。また、宣言された推論系列と自律的に生成された(自発的な)認識論的系列の両方に対応する、需要駆動型の委任(デリゲーション)設計も備える。
  • 11ケースの事前承認異議申し立てデータセットでのベンチマークにおいて、Cognitive Coreは精度91%を達成し、ReAct(55%)やPlan-and-Solve(45%)を上回る。さらに、サイレントエラーは0件であり、ベースラインの5〜6件に対して優れていた。
  • 著者らは主要な評価指標として「governability(統治可能性)」を導入する。これは、システムがいつ自律的な行動を控えるべきかをどれほど確実に認識できるかを測る指標である。そして、新しい制度ドメインは、エンジニアリングではなく設定(YAML)によって展開可能だと主張する。

要旨: 団体の意思決定――規制順守、臨床トリアージ、事前承認の異議申立て――は、汎用エージェントが提供するものとは異なるAIアーキテクチャを必要とします。エージェントのフレームワークは会話を通じて権限を推論し、ログから説明責任を再構成し、そして沈黙した誤りを生成します。すなわち、誤った判断が、何ら人間のレビューを促すシグナルなしに実行されるのです。私たちは、認知コア(Cognitive Core)を提案します。これは、9つの型付き認知プリミティブ(retrieve, classify, investigate, verify, challenge, reflect, deliberate, govern, generate)から構築され、計算に内生する改ざん検知可能なSHA-256ハッシュチェーンの監査台帳を備え、人間によるレビューが事後のチェックではなく実行の条件となる、4層のガバナンスモデルを備えます。さらに、宣言された推論系列と、自律的に推論されたエピステミック(認識論的)系列の両方を支える、要求駆動型の委譲アーキテクチャを備えています。

私たちは、11件からなるバランスの取れた事前承認異議申立ての評価セットで、3つのシステムをベンチマークします。認知コアは、55%(ReAct)および45%(Plan-and-Solve)に対して91%の精度を達成します。ガバナンスの結果はさらに重要です。CCは沈黙した誤りをゼロにしたのに対し、両方のベースラインは5〜6件でした。私たちは、システムが自律的に行動してはいけないときに、それをどれだけ確実に「知っているか」を表すガバナビリティ(governability)を、精度と並ぶ制度向けAIの主要評価軸として導入します。ベースラインは、プロンプトとして実装しており、ガバンド(governed)な枠組みに代わる現実的な導入選択肢を表しています。構成駆動のドメインモデルにより、新しい制度上の意思決定ドメインを導入するにはエンジニアリング能力ではなくYAMLの設定が必要になります。