才能インテリジェンスのプラットフォームであるEightfoldは、最近注目すべきことを共有しました。AIエージェントを使って、2か月でWCAG 2.2 AAへの準拠を達成したのです。同じ作業は、手作業だと6〜10か月かかっていたはずです。
見出しは印象的です。しかし面白いのは、彼らがどれだけ速く問題を見つけたかではありません。問題を見つけた「その後」に何が起きたかです。すべての修正は人間によってレビューされ、基準に照らして検証され、完了まで追跡されました。AIが「発見」を行いました。システムが「強制」を行いました。
今日同じアプローチを試そうとするほとんどのチームは、最初の部分は正しくできても、2つ目を完全に見落とします。
Everyone is shipping accessibility agents
状況は急速に変わりました。ここ数か月だけでも:
- Community Accessというオープンソースプロジェクトが、Claude Code、GitHub Copilot、Claude Desktop向けに57のアクセシビリティエージェントを公開しました。すべてのプロンプトを傍受し、専門のレビュアーに委譲することで、WCAG 2.2 AAを強制します。
- BrowserStackが、コミットが行われる前に、WCAG違反を検知するアクセシビリティDevToolsを立ち上げました。リアルタイムにコードをリントします。
- Dequeがaxe MCPサーバーを出荷し、スキャンエンジンをAIのコーディング支援者に直接接続しました。
- Siteimproveが、AIエージェントが準拠タスクを自律的に処理する「agentic accessibility(エージェント型アクセシビリティ)」と彼らが呼ぶもののためのフレームワークを公開しました。
パターンは明確です。アクセシビリティのツールが、コードが書かれる場所へ移りつつあります。事後に別スキャンを実行する時代は終わりに向かっています。
これは本当に良いことです。AIコーディングエージェントは、多くの開発者が記憶に頼って作業するよりも、構造的なアクセシビリティの問題を見つけるのが得意です。見出し階層を確認し忘れません。15枚目の画像でaltテキストを飛ばしません。ルールを、一つ一つのファイルすべてに対して、毎回一貫して適用します。
問題を見つけることは、解決済みの課題です。難しいのは、見つけることではありません。
What happens after finding
誰も十分に答えていない疑問があります。AIがあなたのコードベースで40件のアクセシビリティ問題を見つけたら、次に何が起きるのですか?
AIが修正します。いくつか。今回のセッション内で。そして明日には、新しい会話が始まります。何が起きたかについての記憶はありません。別の開発者が別のエージェントを実行し、別の一群の指摘結果が得られます。火曜日に見つかった問題のうち、実際にどれが解決されたのか誰も分かりません。修正によって新しい問題が生まれたかどうかも分かりません。何がレビューされ、いつレビューされたのかを一覧にして出すこともできません。
ここに「強制(enforcement)のギャップ」があります。「AIが問題を見つけた」から「それらの問題が修正されたことを証明でき、検証され、追跡されている」までの、その間の空白です。
それは、次の3つの具体的な形で現れます。
Fixes without verification
AIエージェントが、<nav>要素にaria-label="navigation"を追加します。これは適切なラベルでしょうか?既存のaria-labelledbyと競合しませんか?計算されたアクセシブルネームは、文脈の中で意味が通りますか?AIは変更を加えて次へ進みます。変更が実際に何かを改善したかどうかを誰も確認していません。
自動スキャンツールなら、こうした修正の一部を検証できます。APCAは知覚上のしきい値に対してコントラスト比を確認できます。axe-coreはレンダリングされたDOMを検証できます。しかし、これらの検証手順が修正のワークフローに結び付いていないなら、それは実行されません。
Findings without persistence
すべてのAIコーディングセッションはゼロから始まります。エージェントは、先週の水曜日にモーダルコンポーネントでキーボードトラップを見つけたこと、木曜日に開発者がそれを部分的に直したこと、金曜日に別のコンポーネントで修正によってフォーカス管理が壊れたことを知りません。
永続的な追跡がないと、同じ問題が再発見され、再度報告され、再度修正されます。あるいはさらに悪い形として、一度見つかって部分的に対処されても、忘れ去られてしまいます。
Evidence without structure
コンプライアンス担当者が尋ねます。「アクセシビリティの観点で、どのコンポーネントがレビューされましたか?いつですか?どんな問題が見つかりましたか?それらは解決されていますか?」
答えが、複数のAIセッションに散らばったチャットの記録にあるだけなら、それは証拠ではありません。考古学です。
Why this matters now
2025年6月以降、欧州アクセシビリティ法(European Accessibility Act)は、ヨーロッパ全体で積極的な執行が行われています。罰則は実在しており、国によって異なります。フランスでは最大€250,000、スペインでは最大€600,000で、加盟国の一部では消費者が直接民事手続きを開始できることを認めています。米国では、ADAの訴訟が引き続き増加しています。英国では平等法(Equality Act)がすでにデジタルサービスを対象にしています。
規制の問いは「製品がアクセシブルであるべきか?」から「それらがアクセシブルであることを実証できますか?」へと移りました。
「私たちはWCAGのルールに従うAIエージェントを使っています」というのは意図に関する声明です。規制当局が求めるのは結果の証拠です。何をチェックしたのか、何が見つかったのか、何が修正されたのか、どのように検証したのか。これはプロンプトではなく、システムが必要です。
What closing the loop looks like
この点をうまく実現できているチームには、共通するパターンがあります。彼らは単に問題を見つけるだけではありません。修正の強制サイクルを回します:
Find(発見)。AIエージェントと自動スキャナが、コード内のアクセシビリティ上の障壁を特定します。静的解析が構造的な問題を捉えます。実行時スキャンが、レンダリングされたDOMの問題を捕捉します。さらに、完全に自動化に抵抗する40%については、ガイド付きレビューが扱います。フォーカス順、認知負荷、コンテンツの再フロー、色覚バリアフリーなどです。
Report(報告)。すべての指摘は、特定のWCAG基準、影響を受けるコンポーネント、重大度、そして誰が影響を受けるのかを平易な言葉で説明する情報とともに、永続的な追跡システムに記録されます。チャットの記録ではありません。ターミナルログでもありません。構造化された記録です。
Fix(修正)。開発者(またはガイダンス付きのAI)が問題に対処します。修正は、あいまいな「アクセシブルにしておく」ではなく、特定の指摘範囲に限定されます。
Verify(検証)。修正が品質基準に照らしてチェックされます。コントラスト比は本当に改善しましたか?スクリーンリーダーは正しいラベルを読み上げますか?トラップなしで、キーボード操作でそのコンポーネントを通過できますか?検証に失敗した場合、その問題はオープンのままです。
Evidence(証拠)。サイクル全体が保持されます。何が、いつ、誰によって見つかり、どのように修正され、検証に合格したのか(あるいは失敗したのか)。これは監査担当者がレビューできるものです。チーム変更や締め切りのプレッシャー、監査から監査までの6か月といった状況でも生き残ります。
どこかのステップを省くと、ギャップは再び現れます。報告なしの発見は見えない作業になります。検証なしの修正は誤った安心感になります。証拠なしの検証は、立証できない準拠になります。
The WCAG 3.0 signal
W3Cは2026年3月にWCAG 3.0の新しいWorking Draftを公開し、新たに174のアウトカム(結果)を導入しました。「success criteria(成功基準)」から「outcomes(アウトカム)」へのシフトは、呼び名の変更にとどまりません。チェックボックスを確認するだけでなく、結果を測る方向へ向かっていることを反映しています。
WCAG 3.0は、早くても2028年まで確定されません。しかし方向性は明確です。次の世界のアクセシビリティ標準では、「この要素にalt属性があるか?」だけでなく、「それを使う人々にとって、どのようなアクセシブルな結果をこのコンテンツが実現しているのか?」が問われるようになります。
それは「発見」の問いではなく、強制の問いです。そして、それを閉じるシステムを持たないチームにとって、「AIが問題を見つけた」から「アウトカムを証明できる」までのギャップは、さらに広がります。
The landscape converging
興味深いことが起きています。アクセシビリティツール市場とAIコーディングツール市場が統合されつつあります。
アクセシビリティスキャン分野で最大の名を持つDequeは、MCPサーバーを提供します。Community Accessは、コードアシスタントの中で動作するエージェントを構築しています。BrowserStackは、DevToolsにリアルタイムのアクセシビリティチェックを追加しました。TestPartyは、修正(remediation)をGitHubのワークフローに埋め込みます。
同時に、MCP自体も成熟しています。エコシステムは月間SDKダウンロードが9,700万件に到達しました。MCP-Hiveのようなマーケットプレイスは、商用ツールサーバー向けの課金レイヤーを追加しています。AIエージェントを専門的なツールに接続するためのインフラが、本番運用に耐えるレベルになりつつあります。
アクセシビリティを「デフォルトでAIが対応するもの」として扱うチームは、規制当局やクライアントから証拠を求められたときに、そのギャップを見つけることになるでしょう。AIを施行(enforcement)システムに接続するチームは、答えを用意できています。
試してみる
あなたのAIコードアシスタントに、コンポーネントのアクセシビリティをレビューするよう依頼してください。おそらく本当の問題を見つけるはずです。では、次のように聞いてみてください。どのコンポーネントはすでにレビュー済みですか?先週は何が見つかりましたか?証拠を見せてもらえますか?
それらの質問の後に訪れる沈黙が、施行ギャップです。
それを埋めることが、「アクセシビリティを大切にしています」という主張を事実に変えるのです。
私は、AIコードエージェントの中で動作するアクセシビリティ準拠(compliance)ツールであるJeikinを開発しています。オーバーレイや個別の監査の代わりに、実際のコードをチェックし、ダッシュボードで証拠を追跡します。npx jeikinで試してみてください。



