説得可能性とLLMを法的意思決定ツールとして用いること

arXiv cs.AI / 2026/4/30

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、大規模言語モデル(LLM)が法的主張をどのように扱うかを調べ、競合する主張に対して「取り組み、応答する」点に焦点を当てています。
  • 法的意思決定支援では、十分に説得力のある形で議論へ応じつつも、弁論の巧みさによって事件の本質ではなく判断が左右されるほどには過度に影響されないことが重要だと示しています。
  • 研究では、最先端のオープン/クローズドな重みを持つLLMを対象に、主張を行う側(弁論者)の議論の質が、特定の法的見解へのモデルの同意確率にどう影響するかを、オリジナルの実験結果として報告しています。
  • 結果がどの要因によって生じるのかを探り、法務・行政の意思決定領域でLLMを導入することの実現可能性とリスクに関する示唆を与えることを目的としています。

概要: 大規模言語モデル(LLM)が、幅広い司法および行政の文脈において、法的意思決定の補助者、さらには第一審の意思決定者として提案されるに従い、LLMが法的な問いにどのように答えるのか、そしてとりわけ、困難な問いを一方の方向にせよ別の方向にせよ判断へと導く要因が何であるのかを探究することが不可欠となります。法的な意思決定には、争訟当事者によって提示される主張に応答する必要があるという特有の性質があります。法的な意思決定者は、当事者が提示する主張に対して関与し、それに応答できなければならず、また、場合によっては、当事者の主張によって説得され得る形であっても含める必要があります。これに対して、弁論者の説得力がとりわけ強いからという理由で、事案の本質(メリット)ではなく弁論者の技能に基づいて事件を判断してしまうほど、過度に説得されやすくあるべきではありません。我々は、最先端のオープンおよびクローズドウェイトのLLMが法的主張にどう応答するのかを探究し、当該主張を行う弁論者の質が、モデルが特定の法的な見解に同意する可能性にどのように影響するかを調べる、独自の実験結果を報告するとともに、これらの結果を導く要因を探ります。我々の結果は、法的および行政の場においてLLMを採用することの実現可能性に関する示唆を与えます。