人工知能システムにおける相互の信頼と不信:規制の難題

arXiv cs.AI / 2026/4/8

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、AI規制を、AIシステムを「信頼できるかどうか」、そしてユーザーや利害関係者の信頼性を高めるメカニズムが何か、という問いと本質的に結びついたものとして位置づける。
  • AIシステムは、少なくとも部分的には、行為主体性を備えた人工物として捉えられ、人間との間で相互的な信頼と不信の関係を形成し得ると主張する。
  • 相互的な信頼ダイナミクスは、不確実性のもとで、また利害関係者の認識がさまざまである状況でAIシステムを監督しなければならない規制当局の仕事をどのように複雑化するのかを分析する。
  • 本記事は、今後のAIガバナンスおよび規制設計に向けた未解決の緊張やジレンマを明らかにすることで結論づける。