LiRA: 信頼性が高く読みやすい文献レビュー生成のためのマルチエージェントフレームワーク

arXiv cs.CL / 2026/3/23

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • LiRA は、内容のアウトライン作成、セクション執筆、編集、レビューを専門とするエージェントを備えたマルチエージェントワークフローを導入し、文献レビューの生成を自動化します。
  • LiRA は SciReviewGen と独自の ScienceDirect データセットで評価され、AutoSurvey や MASS-Survey といったベースラインを、執筆品質と引用品質の両面で上回りつつ、人間のレビューへの類似性を保ちます。
  • この研究は、レビューモデルのばらつきに対するロバスト性と、実世界の文書取得シナリオでの実現可能性を示しており、科学的執筆のためのエージェント型 LLM ワークフローの実用性を裏付けます。
  • 本研究の結果は、ドメイン特化のチューニングを要せずに顕著な改善を達成できる可能性を示唆しており、LiRA のアプローチがより広範な系統的レビュータスクへ拡張可能であることを示唆します。

Abstract

科学論文の急速な増加は、文献レビューを包括的で最新の状態に保つことをますます難しくしています。これまでの研究は取得とスクリーニングの自動化に焦点を当ててきましたが、体系的レビューの作成段階は依然として十分に探究されておらず、特に可読性と事実の正確性に関してはなお課題が残っています。これに対処するために、LiRA(Literature Review Agents)と呼ばれる複数エージェントによる協働ワークフローを提案します。これは人間の文献レビュー過程を模倣します。LiRAは、内容のアウトライン作成、節ごとの執筆、編集、レビューのための専門エージェントを活用し、結束力があり包括的な総説論文を作成します。SciReviewGenと独自のScienceDirectデータセットで評価したところ、LiRAは執筆および引用品質の点でAutoSurveyやMASS-Surveyといった現行のベースラインを上回り、人間が執筆した総説との類似性も競争力を保っています。さらに、文書検索を用いた実世界のシナリオでLiRAを評価し、レビューモデルの変動に対する堅牢性を評価します。私たちの知見は、特定の分野に特化した調整がなくても、エージェント型LLMワークフローが自動化された科学的執筆の信頼性と使いやすさを向上させる可能性を示しています。 返却形式: {"translated": "翻訳されたHTML"}