Abstract
人工知能は、政策協議や参加型プロセスにおいて、大規模な公共の入力を合成するためにますます導入されている。しかし、これらの要約がもとの母集団を忠実に表しているかどうかを監査するための正式な枠組みは存在しない。この説明責任の欠落は、既存のAIの説明可能性、グラウンディング、幻覚検出のアプローチでは対処できていない。なぜなら、それらは入力の忠実性ではなく出力の品質に焦点を当てているからである。ここでは、参加型プロベナンス(participatory provenance)を導入する。最適輸送理論、因果推論、セマンティック分析に基づく測定枠組みにより、AIを介した要約の過程で、個々の公共の提出がどのように変換され、どのようにフィルタリングされ、あるいは失われるのかを追跡する。これをカナダの2025年から2026年にかけての全国AI戦略に関する協議(2つの独立した政策トピックにわたってn = 5{,}253人の回答者)に適用すると、この枠組みは、公式の政府による要約がいずれも、ランダム参加者のベースラインに比べて性能が劣ることを明らかにする(カバレッジ劣化:-9.1\%および-8.0\%)。さらに、参加者の16.9\%および15.3\%が実質的に排除されている。排除は、AIに対する反対、懐疑、批判を表明するクラスターに集中し、その排除率は33-88\%に及ぶ。簡潔さ、セマンティックな孤立、修辞的レジスターはいずれも、表象される結果を独立に予測する。あわせて公開されるオープンソースの対話型ツール「Co-creation Provenance Lab」は、政策立案者が要約を監査し、反復的に改善できるようにし、スケールする現実の人間を介した監督(human-in-the-loop)を確立する。