ほとんどのAIガバナンスの議論は、まだ本質を外しています。
リスクの原因は、モデルが何を言うかにはありません。原因は、システムが次に何を行うかにあります。
すべてのAIシステムには、提案されたアクションが実際の状態変化に変わる瞬間があります。記録が書き込まれます。支払いが送信されます。アカウントが変更されます。その瞬間が実行境界(execution boundary)です。そして今、多くのシステムはそれを管理上のポイントではなく、前提として扱っています。
実行前にポリシーを確認します。実行後に何が起きたかをログに残します。中には、その途中で承認を追加するものもあります。ですが、評価されたアクションと、実際にコミットされたアクションが同一であることを、これらは何も保証しません。
そのギャップこそが失敗の温床です。
評価と実行の間で何かが変わるなら、(アイデンティティ、入力、システム状態、タイミングなど)、元の判断はもはや有効ではありません。それでも多くのシステムは、その判断がまだ適用されているかのように後ろへ引きずります。これはガバナンスではありません。希望的観測です。
実際の統制には、より厳格な仕組みが必要です。
実行の時点で、権限は現在の状態に対して再解決されなければなりません。もっと前に解決してはいけません。想定してはいけません。推測してはいけません。証明されなければなりません。そして意思決定はアクション自体に結び付けられていなければならず、実行されるのが、認可されたものと全く同じであることが保証されます。余計なものもなければ、不足もありません。
つまり、評価とコミットの間でドリフトが起きてはならないのです。静かな変更をしてはならない。二度目の解釈をしてはならない。意思決定と実行は、同一のものにならなければなりません。
そしてそれが実現したとき、今日のほとんどのシステムにはできないことができます。証明できます。
何が提案され、何が評価され、どのポリシーが適用され、どの条件が存在し、なぜシステムがアクションを許可したのか/ブロックしたのかを、正確に示す検証可能な記録を作り出せます。ログとしてではなく、独立に検証され、再実行(リプレイ)できる密封された成果物としてです。
必要なのは、この転換です。
ガバナンスはガイドラインに存在してはいけません。ログに存在してはいけません。承認に存在してはいけません。アクションが実際のものになる実行境界(execution boundary)に存在しなければなりません。
モデルが提案する。
システムがコミットする。
統制が成立するのは、その正確な瞬間に権限が解決され、そしてシステムが、実行されたものが許可されたものと全く同じであることを証明できる場合だけです。




