要旨: 現在のAIシステムは、出力が直接に現実世界の行動を引き起こす状況で運用されることがますます増えています。AIの安全性、リスク管理、ガバナンスに関する既存の多くのアプローチは、事後の検証、確率的リスク推定、またはモデル挙動の認証に焦点を当てています。しかしこれらのアプローチは暗黙のうちに、意思決定が生成された時点で、それが実行の対象として適格であることを前提としています。本研究では、AI生成の意思決定がそもそも実現されることを許可されているかどうかを評価する、決定論的で補償を伴わない事前実行の意思決定レイヤである Right-to-Act プロトコルを提案します。失敗した条件を高い確信度のシグナルで上書きできる補償型システムとは異なり、提案する枠組みは厳格な構造的制約を強制します。すなわち、必要な条件のいずれかが満たされていない場合、実行は停止されるか、または延期されます。補償型と非補償型の意思決定レジームの違いを形式化し、事前実行の正当性境界を定義します。シナリオに基づくケーススタディにより、Right-to-Act プロトコルで評価した場合に、同一のAI出力でも分岐した結果につながり得ることを示し、可逆性を維持しつつ、時期尚早または不可逆な行動を防ぎます。提案手法は、AI制御を意思決定の最適化から、それらの許容可能性を統治することへと作り替えます。さらに、モデルのアーキテクチャや学習手法に依存しない、プロトコルレベルの抽象化を導入します。
Right-to-Act:AIシステムのための事前実行・非補償的な意思決定プロトコル
arXiv cs.AI / 2026/4/28
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、AIの出力が現実世界で実行されることを許可するかどうかを判断する「Right-to-Act」プロトコルを提案しており、AIの事前実行のための決定レイヤーを提供します。
- 非補償的なレジームと補償的なレジームの違いを明確化し、必要条件のいずれかが満たされない場合には高い信頼度のシグナルで上書きせず、実行を停止または延期するという厳格な構造制約を課します。
- 事前実行の正当性境界を形式化し、シナリオベースのケーススタディにより、同じAI出力でもRight-to-Actプロトコルが実行を許すかどうかで結果が分岐しうることを示します。
- この手法は、意思決定を最適化するのではなく「意思決定が許容されるか(admissibility)」を統制するという発想に転換し、可逆性を保ち、時期尚早または不可逆な行動を防ぐことを目指します(モデル構造や学習方法に依存しないとしています)。

