参加型プロベナンス:AIを介した公共協議における表象監査のための枠組み

arXiv cs.AI / 2026/4/23

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • 本論文は、説明可能性やグラウンディング、幻覚検出といった既存のAI監査手法では、公共協議における要約が「入力となった母集団」をどれだけ忠実に保っているかという説明責任のギャップは埋められていないと指摘しています。
  • 「参加型プロベナンス」として、最適輸送理論・因果推論・セマンティック分析に基づき、AIによる要約の過程で個々の投稿がどう変換・フィルタリング・消失するかを追跡する計測枠組みを提示しています。
  • カナダの2025–2026年の国家AI戦略に関する協議(回答者5,253人、2つの政策トピック)に適用した結果、政府が作成した要約はランダム参加者のベースラインより性能が低く、カバレッジの劣化は9.1%と8.0%、実質的な除外はそれぞれ16.9%と15.3%でした。
  • 除外はAIに対する不服・懐疑・批判といった見解を表すクラスタに偏っており、簡潔さ、セマンティックな孤立性、修辞的レジスターが表象の忠実性の悪化を独立に予測する要因になると示されています。
  • 併せて、政策担当者が要約を監査し反復的に改善できるオープンソースの対話型ツール「Co-creation Provenance Lab」を公開し、スケールする人間のループ監督を実現することを提案しています。

Abstract

人工知能は、政策協議や参加型プロセスにおいて、大規模な公共の入力を合成するためにますます導入されている。しかし、これらの要約がもとの母集団を忠実に表しているかどうかを監査するための正式な枠組みは存在しない。この説明責任の欠落は、既存のAIの説明可能性、グラウンディング、幻覚検出のアプローチでは対処できていない。なぜなら、それらは入力の忠実性ではなく出力の品質に焦点を当てているからである。ここでは、参加型プロベナンス(participatory provenance)を導入する。最適輸送理論、因果推論、セマンティック分析に基づく測定枠組みにより、AIを介した要約の過程で、個々の公共の提出がどのように変換され、どのようにフィルタリングされ、あるいは失われるのかを追跡する。これをカナダの2025年から2026年にかけての全国AI戦略に関する協議(2つの独立した政策トピックにわたってn = 5{,}253人の回答者)に適用すると、この枠組みは、公式の政府による要約がいずれも、ランダム参加者のベースラインに比べて性能が劣ることを明らかにする(カバレッジ劣化:-9.1\%および-8.0\%)。さらに、参加者の16.9\%および15.3\%が実質的に排除されている。排除は、AIに対する反対、懐疑、批判を表明するクラスターに集中し、その排除率は33-88\%に及ぶ。簡潔さ、セマンティックな孤立、修辞的レジスターはいずれも、表象される結果を独立に予測する。あわせて公開されるオープンソースの対話型ツール「Co-creation Provenance Lab」は、政策立案者が要約を監査し、反復的に改善できるようにし、スケールする現実の人間を介した監督(human-in-the-loop)を確立する。