Claudeが法廷でハルシネーションを起こすとどうなるか:Latham&Watkinsの事案と弁護士の責任の意味

MarkTechPost / 2026/5/6

💬 オピニオンIdeas & Deep AnalysisTools & Practical UsageIndustry & Market Moves

要点

  • 2025年にLatham&WatkinsがConcord Music Group v. Anthropicで提出した書面に、Claudeに関連する内容が含まれ、法的場面でAIがハルシネーション(誤りや作り話)を生むことが問題になりました。
  • この出来事は、AIが生成または支援した発言を裁判所に提出した場合に、弁護士の責任(法的な帰結)がどのように発生し得るかという新たな論点を浮き彫りにしています。
  • AIの出力を宣誓供述書や提出書類、証拠として取り込むなら、厳格な検証・レビュー手順が不可欠であることを示しています。
  • 今後の訴訟では、AIが何を言ったかだけでなく、提出前に弁護士がそれをどの程度検証したかも厳しく問われる可能性が示唆されます。
  • まとめると、この事案は法務系のAI導入に対して、AI関連ワークフローにもコンプライアンスと注意義務が及ぶ可能性があるという実務上の警告として位置づけられています。

法律家という職業が、これほどまでに純度の高い形でその目撃の機会に恵まれることは、めったにない特有の皮肉があります。2025年5月、パートナーに対して1時間あたり2,000ドル超を通常のように請求し、顧客としてAnthropicを数える法律事務所Latham & Watkinsは、Concord Music Group v. Anthropicに関する裁判所への宣誓供述書(裁判宣誓供述書)を提出し、その中には[…]

その記事は「When Claude Hallucinates in Court: The Latham & Watkins Incident and What It Means for Attorney Liability」として、最初にMarkTechPostに掲載されました。