説明可能なAMLトリアージをLLMで実現:証拠検索と反実仮想チェック

arXiv cs.LG / 2026/4/23

📰 ニュースDeveloper Stack & InfrastructureModels & Research

要点

  • この論文は、生成された根拠が監査・ガバナンス要件のもとで信頼できない可能性があるため、自由生成のLLM説明がリスクになるAMLアラートの迅速なトリアージ課題に取り組んでいます。
  • 提案手法は、証拠に制約された説明可能なAMLトリアージの枠組みとして、ポリシー/類型ガイダンス、顧客コンテキスト、アラート要因、取引サブグラフからの検索拡張による証拠束ね、さらに明示的な引用を必須とし証拠の支持・反証・欠落を分離する構造化LLM出力契約を組み合わせます。
  • さらに反実仮想チェックを導入し、小さくもっともらしい摂動によりトリアージ推奨とその根拠が首尾一貫して変化するかを検証します。
  • 合成の公開AMLベンチマークでの評価では、監査可能性の向上とハルシネーション誤りの低減が示され、最良の全体性能(PR-AUC 0.75、Escalate F1 0.62)と高い出所性・忠実性指標(引用の妥当性0.98、証拠支持0.88、反実仮想忠実性0.76)が得られました。
  • 著者らは、ガバナンスされ検証可能なLLMシステムが、追跡性と妥当性(defensibility)を損なわずにAMLトリアージの意思決定支援として実用化できると結論づけています。

Abstract

マネーロンダリング対策(AML)取引モニタリングは大量のアラートを生成し、そのアラートを監査とガバナンスの厳格な制約のもとで、捜査担当者が迅速にトリアージしなければなりません。大規模言語モデル(LLM)は異種の証拠を要約したり論拠案を作成したりできますが、規制されたワークフローでは、ハルシネーション(幻覚)、弱い出所(プロベナンス)、および基礎となる判断に忠実でない説明が原因で、無制約な生成は危険です。本研究では、トリアージを「証拠に制約された意思決定プロセス」として扱う、説明可能なAMLトリアージの枠組みを提案します。提案手法は、(i) ポリシー/類型(タイポロジー)ガイダンス、顧客コンテキスト、アラートのトリガー、取引サブグラフからの検索拡張型エビデンス・バンドリング、(ii) 明示的な引用を要求し、支える証拠と反証する証拠、または欠落している証拠を分離する構造化されたLLM出力契約、(iii) 最小であり得る妥当な摂動が、トリアージ推奨とその論拠の両方に整合的な変化をもたらすかを検証する反実仮想(カウンターファクチュアル)チェック、の3点を組み合わせます。公開されている合成AMLベンチマークおよびシミュレータで評価し、ルール、表形式およびグラフの機械学習ベースライン、ならびにLLMのみ/RAGのみのバリアントと比較します。その結果、証拠に基づく根拠付けは監査可能性を大幅に改善し、数値およびポリシーに関するハルシネーション誤りを低減することが示されました。さらに、反実仮想の妥当性検証は、意思決定に結び付いた説明可能性と頑健性を高め、最良の総合トリアージ性能をもたらします(PR-AUC 0.75;Escalate F1 0.62)。加えて、強力な出所と忠実性の指標も得られました(引用妥当性 0.98;証拠サポート 0.88;反実仮想の忠実性 0.76)。これらの結果は、統制され検証可能なLLMシステムが、追跡可能性と防御可能性のためのコンプライアンス要件を損なうことなく、AMLトリアージのための実用的な意思決定支援を提供できることを示しています。

説明可能なAMLトリアージをLLMで実現:証拠検索と反実仮想チェック | AI Navigate