私は2025年から今年にかけてのAIセキュリティインシデントデータを掘り下げてきたのですが、セキュリティの分野の外では、あまりにも十分に話題にされていない何かがあるように感じます。
多くの問題は、高度な攻撃というわけではありません。新しい技術に対してこれまで見てきたのと同じパターンです。たとえば、外部データ経由のプロンプトインジェクション、権限が多すぎるエージェント、あるいは会社が把握していないのに従業員がAIツールを使ってしまうといったケースです。私が見たある統計では、エンタープライズは承認されていないAIアプリを平均300以上使っているそうで、なかなか衝撃的です。
インシデントデータはそれを裏づけています。プロンプトインジェクションは、本番環境への導入の大きな割合で見られます。さらに、AIによって攻撃者が弱点をより速く見つけやすくなっている面もあって、基本的な抜け穴を突く攻撃が目立って増えています。AI利用に関連した資格情報(クレデンシャル)の漏えいも増加しています。
私が特に気になったのは、攻撃そのものだけではなく、その下にあるギャップです。実際にAIセキュリティ専任チームを持っている企業はほんの一部に過ぎません。多くの場合、AIセキュリティはセキュリティチームが担当してすらいません。
厄介なのは、従来のセキュリティ知識だけではそこまでしか役に立たないことです。入力バリデーションや信頼境界といった概念は引き継げますが、詳細があまりに違うため、いつもの勘がそのまま完全には当てはまりません。プロンプトインジェクションはSQLインジェクションと同じではありません。エージェントの権限は、典型的なAPI認証の挙動とは異なります。
追いつこうとする枠組みもあります。OWASPにはLLMやエージェント型システム向けのリストがあります。MITRE ATLASはAI特有の攻撃手法をマッピングしています。NISTにはAIリスクのフレームワークがあります。ガイダンスは存在しますが、それを実際に適用できる人の数は限られているように感じます。
私はその知識を自分でも構築しようとしていて、ドキュメントを読むだけより、より実践的な学習のほうがはるかに役立つことが分かりました。
皆さんはどのようにアプローチしていますか。AIシステムを作っている/扱っている立場なら、セキュリティを最初から考えていますか、それとも、すでに稼働し始めてから主に対応している感じですか?
興味のある方の参考情報:
Adversa AI Security Incidents Report 2025
Acuvity State of AI Security 2025
[link] [comments]




