AIだけでシステムを構築してよいのはいつか? 責任について考えるためのフレームワーク

Dev.to / 2026/3/14

💬 オピニオンIdeas & Deep Analysis

要点

  • 専門的なソフトウェアプロジェクトにおいて、AIだけで構築することを回避するのは主に責任と法的責任の懸念によるものである。
  • 責任を三つの部分に分けて定義している:保証期間(無償のバグ修正)、物事がうまくいかなかったときの人間の説明責任、そしてバグを最小化することに人間中心の取り組み。
  • 責任を問われるのは人間だけであると主張しており、これが専門的な開発でAIのみのアプローチが採用されない理由である。
  • 医療・決済/金融・法的文書といった高リスク領域では、AIだけは危険だと特定している。なぜなら誤りが人や社会に直接かつ取り返しのつかない影響を及ぼす可能性があるからである。
  • AIだけで対応できるかもしれないシステムのセクションを導入しているが、抜粋が途中で終わっており、提供テキストでは安全なAIのみの使用の基準が未完成のままである。

はじめに

最近、「AIだけでXを作った」という投稿があちこちにあります。個人のプロジェクトではこれが新しい普通になりつつあるように感じます。しかし専門的なソフトウェア開発(顧客向けの契約ベースのシステム開発を指します)においては、誰もが「AIだけで作った」と言うのを聞いたことがありません。

もしAIがすべてを処理でき、開発者が指示を出すだけで済むなら、コストは劇的に低下し、クライアントは大喜びするでしょう。では、AIの進歩にもかかわらず、専門的なプロジェクトはなぜまだ「AIだけ」で進行しないのでしょうか?

この問いに対する自分なりの答えを今、はっきりさせたい — そうすればAIの能力がさらに向上したときに見直す基準を持ち、「それは何かを変えるのか?」と再考できる。

結論は、責任の問題に尽きる。

「責任」を分解する

システム開発の契約には、「全てAIによって構築され、人間はバグについての責任を負わない」という条項を含めることはできません(もちろん、現実にはかなり現実的ではありません!)

では、契約上の文脈で「責任」とは実際に何を意味するのでしょうか? おおよそ次の3つに分けられます:

  1. 保証期間(無償のバグ修正) — バグ修正自体の作業にはAIが関与することがあります。しかし、責任、すなわち損害賠償の取り扱いまたは契約終了といったものは、人間だけが負うことができます。
  2. 何か問題が起きたときに可能な限りすべてを尽くすという約束 — 謝罪、調整、予防措置の説明。これを行えるのは人間だけであり、AIにはできません。
  3. できる限りゼロに近いバグの最小化を誓うこと — 人間でも完璧を約束することはできません。しかし人間は「全力を尽くします」と言えます。AIは公然とゼロバグを保証できないことが有名で、誰もがそれを知っています。

要するに、責任を負えるのは人間だけであり、だからこそ「AIのみ」というアプローチは専門的な開発で用いられない根本的な理由です。

AIだけで危険なシステム

この責任の理解を前提にしても、以下の領域では人間の関与が依然として必要です:

領域 理由
医療(診断、薬剤など) 命に直接影響します。誤りのコストが高すぎます。
支払いと金融 財務的損害が第三者にも及ぶ可能性があります。
企業間の法的文書(請求書、発注書など) 法的拘束力があります。誤りは組織外の関係に影響を及ぼします。

共通するのは、誤りが人や社会に直接、取り返しのつかない影響を及ぼすという事実です。これらの分野でAI生成の出力を人間のレビューなしに使用することは、現時点では私の見解では依然としてリスクが高すぎます。

AIだけで問題ないシステム

一方で、これらの種類のシステムは