要旨: 高リスクな領域における大規模推論モデル(LRM)とマルチエージェントシステム(MAS)では、信頼できる検証が求められるが、集中型アプローチには4つの限界がある:(1)頑健性。単一障害点が攻撃やバイアスに対して脆弱である。(2)スケーラビリティ。推論の複雑さがボトルネックを生む。(3)不透明性。隠れた監査が信頼を損なう。(4)プライバシー。推論の痕跡がモデル窃取のリスクを高める。私たちはTRUST(Transparent, Robust, and Unified Services for Trustworthy AI:信頼できるAIのための透明・頑健・統合サービス)を提案する。これは分散型フレームワークで、3つの革新を備える:(i)Chain-of-Thought(思考連鎖)推論を5つの抽象化レベルに分解し、並列分散監査を可能にする階層型ディレクテッド非巡回グラフ(HDAGs)。(ii)DAANプロトコル。マルチエージェント間の相互作用を因果相互作用グラフ(CIGs)へ投影し、決定論的な根本原因の帰属を実現する。(iii)計算チェッカー、LLM評価者、そして人間の専門家の間で多層の合意形成を行う。ステークに重み付けした投票により、敵対的参加が30%であっても正しさを保証する。私たちは、安全性—収益性定理(Safety-Profitability Theorem)を証明する。これは誠実な監査者は利益を得る一方で、悪意ある行為者は損失を被ることを保証する。すべての判断はオンチェーンに記録され、さらにプライバシー・バイ・デザインのセグメンテーションにより、専有ロジックの再構築を防ぐ。複数のLLMとベンチマークにおいて、TRUSTは72.4%の精度(ベースラインより4〜18%上回る)を達成し、腐敗(破壊的改ざん)に対して20%でも頑健である。DAANは根本原因帰属で70%を達成(標準手法の54〜63%に対して)し、さらにトークン節約で60%を実現する。人手研究によって設計が検証されている(F1 = 0.89、Brier = 0.074)。このフレームワークは(A1)分散型監査、(A2)改ざん耐性のあるリーダーボード、(A3)信頼不要なデータ注釈、(A4)統治された自律エージェントを支援し、推論能力を備えたシステムの安全で説明責任ある導入のための分散型AI監査を先駆けて実現する。
TRUST:分散型AIサービスのためのフレームワークv0.1
arXiv cs.AI / 2026/5/1
📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research
要点
- この論文は、高リスク領域での大規模推論モデルやマルチエージェントシステムの検証を強化するための分散型フレームワーク「TRUST」(Transparent, Robust, and Unified Services for Trustworthy AI)を提案する。
- TRUSTは、HDAGsによる分散監査の並列化、DAANによるマルチエージェント相互作用の因果グラフ化と決定的な原因特定、さらにステークに基づく投票を伴う多層コンセンサスによって、中央集権アプローチの「頑健性・拡張性・透明性(監査の不透明さ)・プライバシー」の課題に対処する。
- 最大30%の敵対者参加でも正しさを保証することを主張し、改ざん耐性のためのオンチェーン記録と、プロプライエタリな推論ロジックの再構成を防ぐプライバシー設計(セグメンテーション)を組み合わせている。
- 複数のLLMとベンチマークでの結果として、72.4%の精度(基準比で4〜18%上昇)や、20%の汚染に対する耐性、さらにDAANによる原因特定精度70%(標準手法より改善)とトークン使用量60%削減が報告されている。
- 人手による評価指標(F1=0.89、Brier=0.074)も設計を支持しており、著者らはTRUST/DAANが分散監査、信頼不要なデータアノテーション、ガバナンス付き自律エージェントを可能にすると位置づけている。




