Abstract
人工知能は現在、誰がローンを受けられるか、誰が犯罪捜査のためにフラグ付けされるか、そして自律走行車が間に合うようにブレーキをかけるかどうかを決めています。各国政府の対応も進んでいます。すなわち、EUのAI法(EU AI Act)、NISTのリスク管理フレームワーク、欧州評議会の条約はいずれも、高リスクなシステムについて、配備の前に安全性を示すことを要求しています。 しかし、この規制に関する合意の下には、重大な空白が横たわっています。「許容可能なリスク」が定量的に何を意味するのかを誰も定めておらず、さらに、配備されたシステムがそのような閾値を実際に満たしていることを検証するための技術的方法も誰も提供していません。規制上の枠組みは整備されていますが、検証のための手段が欠けています。
このギャップは机上のものではありません。EU AI法が本格的な執行段階に入るにつれ、開発者は、定量的な安全性エビデンスを作成するための確立された手法がないまま、強制的な適合性評価に直面します。そして、監督が特に必要とされるシステムは、ホワイトボックスでの精査に抵抗する、不可視な統計的推論エンジンです。
本論文は、その不足している手段を提供します。航空機認証のパラダイムに着目し、AIリスク規制を工学実務へと変換する二段階の枠組みを提案します。第一段階では、所轄当局が許容される故障確率 delta と運用上の入力領域 varepsilon を正式に固定します――これは、直接的な民事責任への含意を持つ規範的な行為です。第二段階では、RoMAおよびgRoMAの統計的検証ツールが、システムの真の故障率に関する決定的で監査可能な上界を計算します。これにはモデル内部へのアクセスは不要で、任意のアーキテクチャへもスケールします。さらに、当該証明書が既存の規制上の義務をどのように満たし、説明責任を開発者へと上流に移し、現在存在する法的枠組みにどのように統合されるのかを示します。