AI Navigate

LLMを活用したテキスト豊富なグラフ学習による学術ウェブ上の誤引用検出

arXiv cs.AI / 2026/3/16

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • LAGMiDは、学術ウェブ上の誤引用を検出する新規のLLM拡張グラフ学習フレームワークとして提案されている。
  • 本アプローチは、チェーン・オブ・ソート(思考過程)プロンプティングを用いた証拠チェーン推論機構を採用し、マルチホップの引用追跡と意味的忠実度の評価を行う。
  • LLM推論コストを低減するために、本手法は中間的なLLM推論状態にGNN埋め込みを合わせることで知識をグラフニューラルネットワークへ蒸留し、さらに複雑なケースをLLMへルーティングする協調学習戦略を採用している。
  • 3つの実世界ベンチマークの実験により、推論コストを大幅に削減しつつ最先端の誤引用検出を実現した。

要旨: 学術ウェブは、引用によって結びつけられた知識の広大なネットワークです。しかし、このシステムは、引用が主張を支持しない、あるいは主張と矛盾するような誤引用によって、ますます損なわれています。現在の誤引用検出手法は、主に意味的相似性やネットワークの異常に依存しており、引用の文脈とそれが広いネットワーク内で占める位置とのニュアンスのある関係を捉えるのに苦戦しています。大規模言語モデル(LLMs)はこのタスクの意味的推論に強力な能力を提供しますが、幻覚リスクと高い計算コストによって展開が妨げられています。本研究では、LLM-Augmented Graph Learning-based Miscitation Detector(LAGMiD)を導入します。新しいフレームワークは、引用グラフに対する深い意味推論にLLMを活用し、その知識をグラフニューラルネットワーク(GNN)へ蒸留して、効率的でスケーラブルな誤引用検出を実現します。具体的には、LAGMiD はエビデンスチェーン推論機構を導入します。これは思考過程の連鎖(chain-of-thought prompting)を用いてマルチホップの引用追跡を行い、意味的忠実性を評価します。LLM 推論コストを削減するため、GNN の埋め込みと中間の LLM 推論状態を整合させる知識蒸留法を設計しました。協調学習戦略は、複雑なケースを LLM に割り当てつつ、構造ベースの一般化のために GNN を最適化します。3つの実世界ベンチマークでの実験は、LAGMiD が推論コストを大幅に削減しつつ、最先端の誤引用検出能力を実現することを示しています。

返却形式: {"translated": "翻訳されたHTML"}