要約: マルチモーダル偽情報検出は、社会的ディスインフォメーションを緩和するうえで極めて重要です。既存のアプローチは、マルチモーダル特徴の融合や、高度な推論のための大規模言語モデル(LLMs)を活用することによってこれに対処しようとします。しかし、これらの手法は、包括的なマルチビュー判断と融合の欠如、そしてLLMsの高い計算コストに起因する推論の非効率性といった重大な制約に直面しています。これらの問題に対処するため、我々は \textbf{LLM}-Guided \textbf{M}ulti-View \textbf{R}easoning \textbf{D}istillation for Fake News Detection ( \textbf{LLM-MRD})、新しい教師-生徒フレームワークを提案します。Student Multi-view Reasoningモジュールは、まずテキスト・視覚・クロスモーダルの視点から包括的な基盤を構築します。次に、Teacher Multi-view Reasoningモジュールが、深い推論チェーンを豊富な監督信号として生成します。我々の中核となる Calibration Distillation メカニズムは、この複雑な推論由来の知識を、効率的な Student モデルへ蒸留します。実験結果は、LLM-MRD が最先端のベースラインを大幅に上回ることを示しています。特に、競合するすべての手法とデータセットで評価した場合、ACCで平均5.19%、F1-Fakeで6.33%の総合的な改善を示しています。我々のコードは https://github.com/Nasuro55/LLM-MRD で公開されています。
LLM-MRD: LLMガイド付き多視点推論蒸留によるフェイクニュース検出
arXiv cs.AI / 2026/3/23
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- LLM-MRDを提案する。これは、LLMガイド付きの多視点推論を活用して精度と効率を向上させる、マルチモーダルなフェイクニュース検出のための教師-学生フレームワークである。
- Studentモジュールは、テキスト・ビジュアル・クロスモーダルの視点から総合的な基盤を構築し、一方で Teacherモジュールは深い推論チェーンを監督信号として提供する。
- Calibration Distillation メカニズムは、教師から学生へ複雑な推論に基づく知識を効率的に伝達し、性能を犠牲にすることなく高速推論を可能にする。
- 実証的な結果は、データセット全体で最先端のベースラインを大幅に上回り、ACC約5.19%、F1-Fake約6.33%の向上を示しており、コードは著者のGitHubで公開されている。


