最近 報告 AIプロジェクトの失敗率について、AIに多額を投資している組織に対して不快な疑問を投げかけています。議論の多くはモデルの精度やデータ品質といった技術的要因に焦点を当ててきましたが、数十件のAIイニシアティブが立ち上がるのを見てきた今、改善の最大の機会はしばしば技術的ではなく文化的なものであることに気づきました。
内部プロジェクトがうまくいかない場合、共通の課題を共有する傾向があります。例えば、エンジニアリングチームはプロダクトマネージャーが使い方を知らないモデルを作ります。データサイエンティストは運用チームが維持するのに苦労するプロトタイプを作ります。そして AIアプリケーション は、人々が「有用」とは本来何を意味するのかに関与していなかったため、使われずにいます。
対照的に、AIによる意味のある価値を実現する組織は、部門横断的に適切な協力の形を作り出し、成果に対する共有の責任を確立しています。技術は重要ですが、組織の準備性も同様に重要です。
ここでは、AIの成功を妨げる文化的・組織的障壁に対処するために私が観察した3つの実践を挙げます。
エンジニアリングを超えたAIリテラシーの拡大
エンジニアだけがAIシステムの仕組みとその能力を理解している場合、協力は崩れてしまいます。プロダクトマネージャーは理解していないトレードオフを評価できません。デザイナーは理解できない機能のためのインターフェースを作成できません。アナリストは解釈できない出力を検証できません。
解決策は全員をデータサイエンティストにすることではありません。それぞれの役割がAIが自分の仕事にどのように適用されるかを理解するのを手助けすることです。プロダクトマネージャーは、入手可能なデータを前提に、どのような生成コンテンツ、予測、推奨が現実的であるかを把握する必要があります。デザイナーは、AIが実際に何ができるかを理解して、ユーザーにとって有用だと感じる機能を設計できるようにする必要があります。アナリストは、AI出力のうち、ヒトの検証が必要なものと、信頼できると判断できるものとを区別できる必要があります。
チーム全体がこの共通の作業用語を共有すると、AIはエンジニアリング部門だけで起こるものではなく、組織全体が効果的に活用できるツールになります。
AIの自律性に関する明確なルールを設定する
2つ目の課題は、AIが自律的に行動できる場所と、人間の承認が必要な場所を知ることです。多くの組織は極端に偏った選択をデフォルトとしており、AIのすべての決定を人間の検討を通じてボトルネックにするか、ガードレールなしでAIシステムを動作させるかのどちらかです。
必要なのは、AIが自律的に行動できる場所と方法を定義する明確なフレームワークです。これは事前にルールを設定することを意味します。AIは日常的な構成変更を承認できますか?AIはスキーマの更新を推奨するが、それを実装することはできますか?AIはステージング環境にコードを展開できますが、本番環境には展開できませんか?
これらのルールには3つの要素を含めるべきです:監査可能性(AIがどのように判断に至ったかを追跡できますか?)、再現性(判断経路を再現できますか?)、観測性(AIの挙動を実際に監視できますか?)。このフレームワークがなければ、AIの利点が失われるまで遅らせるか、誰も説明も制御もできない意思決定をするシステムを作ってしまうかのいずれかになります。
部門横断のプレイブックを作成する
3つ目のステップは、異なるチームが実際にAIシステムとどのように連携して作業するかを体系化することです。各部門がそれぞれ独自のアプローチを開発すると、結果が不一致になり、重複した労力が生まれます。
部門横断のプレイブックは、上から押し付けられるのではなく、チームが一緒に作成する場合に最も効果的です。これらのプレイブックは、具体的な質問に答えます。AI推奨を本番環境に投入する前にどうテストしますか?自動デプロイが失敗した場合のフォールバック手順は何ですか— 人間のオペレーターに引き渡しますか、それとも別のアプローチを先に試しますか?AIの決定を上書きする場合には誰が関与する必要がありますか?フィードバックをどう組み込んでシステムを改善しますか?
目的は官僚主義を追加することではありません。むしろ、AIが彼らの既存の作業にどのように組み込まれるか、そして結果が期待と異なる場合に何をすべきかを全員が理解することです。
今後へ
AIの技術的卓越性は依然として重要ですが、組織的要因を無視しながらモデルの性能を過度に重視する企業は、回避可能な課題を自ら招いています。私が見てきた成功したAI導入は、技術的実装と同じくらい、文化的変革とワークフローを真剣に扱っています。
問題は、あなたのAI技術が十分高度かどうかではありません。組織がそれと共に働く準備ができているかどうかです。
Adi Polak は Confluent のアドボカシーおよびデベロッパーエクスペリエンスエンジニアリングのディレクターです。