問題:正しい情報、しかし誤った出所
AIが生成した回答はしばしば正しい――ただし、完全には正しくありません。
水の注意喚起は正しく要約されています。日付も正確です。指針も明確です。しかし、発行主体が誤っています。市が出した通知が、郡のものとして帰属されてしまうのです。
この区別は、管轄、責任、そして人々の対応を定義します。それにもかかわらず、回答はまるでその違いがないかのように見えてしまいます。
これはコンテンツの失敗ではありません。構造の失敗です。
AIシステムは実際に情報をどう処理するか
AIシステムは文書を固定された単位として読み取りません。
それらは:
- 断片(文、段落、抜粋)を取り込み
- ページではなくパターンを保存し
- 確率的に回答を再構成します
この過程の中で:
コンテンツが、その出所から切り離されます。
つまり:
- 帰属(アトリビューション)が推測され
- タイミングが概算され
- 権威がずれていく可能性があります
システムは流暢な回答を生成しますが、情報と起源の関係は弱くなっていきます。
なぜ従来の形式が壊れるのか
プレスリリース
- 人間向けに書かれている
- 物語とレイアウトの中に文脈が埋め込まれている
- 構造を通じて権威が示唆される
制限:
AIは、再構成の過程でこれらのシグナルを確実に保持できません。
RSSフィード
- 機械が読み取りやすい
- 配布しやすい
しかし:
- メタデータが最小限
- 検証のためのレイヤーがない
- 帰属を示すシグナルが弱い
制限:
AIはそれらにアクセスできますが、完全に解釈することはできません。
フォーマットの変化
次の流れを考えてください:
- プレスリリース → 人に向けて書かれる
- RSSフィード → システムに向けて書かれる
- AIフィード → AIの推論に向けて書かれる
これは段階的な改善ではありません。
それは構造上の転換です。
欠けているレイヤー:構造化された記録
AIシステムには、暗黙ではなく明示的なシグナルが必要です。
AI Citation Registry(AI引用レジストリ)は、各コミュニケーションに次のような構造化記録を導入します:
- 発行主体(明示)
- 管轄(明示)
- タイムスタンプ(明示)
- 検証ステータス(明示)
推測は不要です。
AI Citation Registryとは(そしてとは言えないこと)
それは:
- 機械が読み取れるインフラ
- 公開のワークフローとは別に存在
- AIシステム向けに設計されている
それではありません:
- AIツール
- コンテンツ作成システム
- 社内のワークフローシステム
- ガバナンス、コンプライアンス、または監査システム
それらは公開後に機能し、公開前ではありません。
それらは:
- コンテンツがどのように作られたかを追跡しない
- AIの利用、プロンプト、または出力を記録しない
- 社内システムと連携しない
確定した、公開済みの記録だけを扱います。
なぜ検索(リトリーバル)では解決できないのか
よくあるアプローチ:
- Retrieval-Augmented Generation(RAG)
- プロンプトエンジニアリング
- 人による検証
これらはすべて下流(downstream)で動作します。
それらは:
- 文書の選択を改善できる
- 表現(言い回し)を改善できる
しかし、そもそも符号化されていなかった構造を再構成することはできません。
帰属が明示されていないなら、推測する必要が出てきます。
構造化データで何が変わるか
情報が記録レベルで構造化されると:
- 帰属が安定する
- 最新性(recency)が信頼できるものになる
- 管轄が保たれる
AIシステムは、もはや関係を推測する必要がありません。
それらは直接認識できます。
インフラであってソフトウェアではない
このレイヤーは、ユーザーが操作するものではありません。
システムが継続的に参照するものです。
AI Citation Registriesは次のように機能します:
- 永続的
- 外部にある
- 機械が読み取れるインフラ
意味が出所に根付いたままでいることを保証します。
実装の文脈
Aigistryは、このモデルの1つの実装です。
それは提供します:
- 全国規模の、構造化されたAIフィード
- 検証済みの政府コミュニケーション記録
- 機械が読み取れるJSON形式
設計されています:
人間の閲覧ではなく、AIの引用のため
結論
AIシステムには次が必要です:
- 明示的な帰属
- 明確な権威
- 信頼できるタイムスタンプ
これらは、従来の形式から一貫して導き出すことはできません。
符号化される必要があります。
それがAI Citation Registryの役割です。




