Abstract
TRUST Agents は、説明可能なファクト検証とフェイクニュース検出のための協調的マルチエージェントフレームワークである。検証を単純な真偽(true-or-false)の分類問題として扱うのではなく、システムは検証可能な主張を特定し、関連する証拠を取得し、その証拠に対して主張を照合し、不確実性のもとで推論を行い、人間が確認できる説明を生成する。ベースラインのパイプラインは 4 つの専門エージェントで構成される。主張抽出器は、固有表現認識(NER)、依存構文解析、そして LLM ベースの抽出を用いて事実的主張を特定する。取得(リトリーバル)エージェントは、BM25 と FAISS を使ったハイブリッドな疎検索および密検索を実行する。検証(ベリファイア)エージェントは、取得した証拠に対して主張を照合し、較正された信頼度(confidence)を伴う判定(verdict)を生成する。次に説明(エクスプレイナー)エージェントは、明示的な証拠引用を含む、人間が読めるレポートを生成する。複雑な主張をより効果的に扱うために、3 つの追加コンポーネントを持つ研究志向の拡張を導入する。この拡張には、LoCal スタイルの主張分解に着想を得た分解(デコンポーザ)エージェント、専門化された検証者ペルソナを用いた Delphi 風のマルチエージェント・ジュリー、原子的な判定を、連言(conjunction)、選言(disjunction)、否定(negation)、含意(implication)によって組み合わせる論理アグリゲータが含まれる。両方のパイプラインを、微調整した BERT、微調整した RoBERTa、そしてゼロショット LLM ベースラインに対して、LIAR ベンチマーク上で評価する。教師ありエンコーダは生の指標ではなお強力である一方、TRUST Agents は、複合的な主張に対する解釈可能性、証拠の透明性、および推論を改善する。さらに、信頼できる自動ファクト検証においては、取得品質と不確実性の較正が主要なボトルネックであることも結果として示される。