フォーカスセッション:AI時代における自律システムの信頼性—安全性・セキュリティ・信頼性・認証における設計課題

arXiv cs.AI / 2026/5/1

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、次世代の自動車や自律プラットフォームで使われる組込みの安全性クリティカルな自律システムにおいて、複雑性の増大やハード・ソフトの不均一性、さらにAI/ML搭載コンポーネントの統合によって信頼性(デペンダビリティ)が難しくなる理由を考察します。
  • AI/MLの非決定性、データ依存性、厳密な保証の欠如がもたらす動的で不確実な挙動は、厳しいリアルタイム性・電力制約・安全制約のもとで、検証・妥当性確認・認証を難しくすると主張しています。
  • 信頼性を高めるには、複数の抽象化レイヤにまたがり、設計時と実行時の両方を含む「全体的な」保証戦略が必要だと述べています。
  • 信頼性モデリング、セキュアなシステム設計、そして学習対応コンポーネント(完全な保証がない前提)を考慮できる認証アプローチなど、今後の手法・アーキテクチャ・フレームワークの動向を整理しています。
  • 総じて本研究は、AIの革新と、認証可能なシステムレベルのデペンダビリティのギャップを埋めることを目的としており、AI/MLの不確実性による検証・妥当性確認・認証上の課題に取り組みます。