AIが弁護士の間でバズった。その後に何が起きたのか、数字でわかる

The Register / 2026/4/13

💬 オピニオンSignals & Early TrendsIndustry & Market Moves

要点

  • この記事では、法曹界においてAIコンテンツがどのように急速に広がったのかを取り上げ、「バズ(viral)」を、ミームのような一過性の流行ではなく、採用(アダプション)型の素早い現象として捉え直している。
  • 初期のAIへの注目の後、弁護士たちが何をしたのかについての定量的な調査結果を報告しており、その後のエンゲージメントや行動の変化が示されている。
  • 法律分野でのAIとの関わりが加速しているため、「ワクチン」が必要だと強調しており、ガバナンス、研修、リスク管理をめぐる緊急性を示唆している。
  • この記事は、弁護士のAIへの関心が、純粋に情報として留まるのではなく、測定可能な後続の行動につながることを裏づける証拠としてデータを提示している。

AIは弁護士の間でバズった。次に何が起きたかの数字をこちらに用意しました

猫の動画のような意味でバズったのではない。私たちにはワクチンが必要、という意味での“バイラル”だ

Mon 13 Apr 2026 // 08:44 UTC

意見 米国の経済成長の中核にある分野として、AIの主張と反論の数々は、奇妙なほど折り合いをつけにくい。モデルは光の速さで改善している――とAI企業は主張する。しかしコードの“向こう側”からのメッセージは、効用がデメリットにまさっているどころか、むしろ釣り合いが取れていない(良い面より悪い面が上回っている)ということを、まだまだ示している。

AIはあなたを10倍のコーダーにできる――ただし準備に10倍の時間を費やし、取り回し(ワンクッション)とエラーチェックに10倍の時間をかける必要がある。AIエージェントを投入できますが、投入するなら“監視する”別のAIエージェントも投入しなければならない。AI生成コードには、増大するボリュームに対処するためにAI生成のテストが必要で、そしてそれがインフラへの負荷に何をもたらすのかを見なければならない。

賭け金が大きいだけに、二極化した意見や、商業的に義務付けられた主張が、AIによるコーディングの戦場に霧をかけるのも驚くに当たらない。ほかの分野ではさらに悪い。そこではAIに対する品質指標が少なく、重大な分析も見えにくいのだ。ルールベースのデータ品質への依存、透明性、真実や専門的な基準を強制するための枠組み――そうしたもののための、十分に定義された領域が昔から存在していたらよかったのに。そこにAI利用が突然広まったなら、技術が実際に何をするのか、はっきりと把握できただろう。

良いニュースがある。まさにそれが存在する。そう、法制度だ。悪いニュースは、うまくいっていないことだ。

根本原因は、非常に相性が悪い“2つの要因”の組み合わせそのものだ。しかも、それはお馴染みの方程式である。AIは、人間の専門家が作ったかのように見える(そして多くの場合、本当にそう見える)構造化された文書を作るのが、驚くほど得意だ。さらにAIは、幻覚的な事実も生成し、組み込む。そこには現実とまったく同じような見た目と手触りがあるが、小さな欠陥が1つだけある――それは偽りだ。

これは、十分に周知されていることである。結果もまた、万人に広く認められている。AIの有用性は幻覚によって大きく損なわれており、そのため出力には徹底的な確認が必要になる。とはいえ、あまりにも出来がよく説得力があるため、生産性が大幅に向上するといったAIの約束を受け入れて、最善を期待してしまうのは非常に人間的だ。

世界中の法制度で起きている結果は、偽の事件である。裁判で主張を行う弁護士は、既存の判例法によって裏づけられた論理的な主張に依存している。これは、書面の陳述書(宣誓供述書)に現れる。つまり、主張に一致する事件が引用または文脈付きで要約され、さらに、それらの事件に対する引用(参照)がアーカイブに用意されているのだ。

弁護士が、望む結論を証明するための指示を出しながらAIで陳述書を書かせるようになるのは、避けられなかった。そして、AIが、主張されている案件に役立つように見える事件を幻覚で作り出すのも、避けられなかった。さらに、そのうちの一部が事実確認をすり抜けて、法廷にたどり着くのも避けられなかった。これが最初に起きた、少なくとも広く注目されたのは、2023年のニューヨーク南部地区の案件だった。だが、次に起きたことは、必然とは思えず、さらに言えば、いっそう驚くべき出来事だった。

弁護士には、とりわけ法制度および裁判所との特別な関係がある。事実を提示するなら、厳格な義務として、真実であること、そして自分が述べることについて適切な裏取りの努力をしてきたことが求められる。弁護士は法廷の職員(court officer)であり、職業倫理に拘束される。さらに弁護士は、噂ではよく「人間であり、間違いもする」とされるが、それでも、そこから学び同じ過ちを繰り返さないことが期待されている。AIによって汚染された陳述書に自分の署名を押した最初の弁護士は、それが新しい技術であり、そして誘惑的なほど効率的だったのだと主張することはできる。そして裁判所は、厳しい警告を発して、それで終えることになるかもしれない。

このニュースが法曹コミュニティの間に広まったことで(しかも、自己についてゴシップすることに異常に長けたコミュニティなのだが)、無知を理由にする言い訳は通用しなくなった。偽の事件の発生頻度は、低レベルのノイズのように小さく留まり、ときどき手を出す輩が出る程度だろう、と予想するかもしれない。しかし、その場で不正をして機関に見つかった場合の報復が、事実上無限の制裁権限によって守られる聖域を、厳しく監視していることを、皆が知っているのだ。

起きたことは、腺ペストの初期段階にもっと近い。あの最初の注目を集めた米国の事例から6か月後、ロンドンの法廷(トライバーナル)で、別の事例が“学んだ者たち”の注意を引いた。先週、NPRが報じたところによれば、パリのビジネススクールHECは、世界各地からの幻覚を含む1,200件の事例を記録しており、そのうち800件は米国だけだという。同じ日、10の異なる法域から、それぞれ1件ずつ、計10件が相次いで持ち込まれた。率は、まだ上がり続けている、と彼らは言っている。

これは、いくつかのケースが注目案件(ハイプロファイル)を超えて広がっているにもかかわらず、そしてどこでも裁判所が免疫システムの反応を強め、6桁の罰金額で弁護士を罰しているにもかかわらず起きている。さらに、AIが生成した文書へのラベリング(表示)を義務づける提案もあるが、おそらくあなたが想像する通りの結果になるだろう。

法曹職には、シニアからの限られた資源や支援しかない状況で、下っ端の従業員に大変な労働をさせる伝統が長くある。少なくとも1件では、部下にAIで簡単な要約書(ブリーフ)を作るよう言いつけたが、事件を確認するのに必要な法務データベースへのアクセスは与えなかった。お金が節約できる、そうでしょう?法曹職が他の何よりも搾取的になり得ることは、驚くことではない。さらに、鼻の中にコカインの粉を入れたのと同じくらい確実に判断を圧倒するようなAIの味に、彼らが自分で抑えがきかず手を出してしまうことも、AIがどれほど危険かを示すのに見えるのと同様に、実に厄介な兆候だ。そして問題が悪化しているのも、これからの新しいモデルが何をより良くできたとしても、幻覚が消えることはないという良い指標になる。

The Regが報告している、責任ある弁護士たちによれば、AIを使うには、節約できる時間と同じくらいの時間を、裏取りのために費やす必要があるという。しかし、それでも慎重に使うのであれば価値はある、としている。これはAIの誇大宣伝とは一致しないが、明らかに真実とは一致している。また、事件の引用(ケース・シテーション)確認を自動化する仕組みは思い描くのは難しくないが、それでもAIには仕事をするための要求(もっとやることがある)をさせてしまうのだ。

法的な幻覚には、注意深く目を配ってほしい。私たちはまだ流行の初期段階にいる。賢い見通しの人たちは、AIが直される前に法制度が問題をシャットダウンするだろうと言うかもしれないが、そのシャットダウンは行われる。しかしそれは、AIが他の分野や他の組織でどれほどの損害を与えているのか、という問いを私たちに残すことになる。そこでは、専門的な倫理に代わって“言い逃れできるようにカバーする行動(cover-your-ass)”が取って代わり、相互の盲目(互いに見ないふり)が透明性と真実より勝っているのだ。うぬぼれが危機へ変わる前に、私たちがそれを修正できることを願おう。®

Share

詳しくはこちら

情報提供してください

ニュースをお送りください