[R] LLMにおけるリコール(想起)と認識(検証)の最近の研究に関心があります

Reddit r/MachineLearning / 2026/3/27

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • この投稿は、LLMが事実情報を検証するよりも正確に想起できるのかどうか、また厳密な引用チェックのような特定の状況では検証が想起を上回り得るのかどうかを問うています。
  • LLMは、著作権の可能性がある資料を直接引用しないように学習されることが多い点に触れ、その制約がリコールと検証のパフォーマンスに与える影響について尋ねています。
  • 著者は、特に事実の正確性に関して、想起タスクと検証タスクの両方でLLMの精度を直接比較した既存研究を求めています。
  • 全体として、内容は新しい発見やシステムのリリースを報告するというより、LLMの挙動を測定・評価する方法に関する文献探索の質問として構成されています。

私は、LLMが、私の代わりに直接引用することができない、あるいはしないはずの正確な引用を、たまたま正しく検証しているのを見たことがあります。私は、それらが、潜在的に著作権で保護されたコンテンツを引用することを避けるように訓練されていること、そしてそれがもたらす意味合いについては理解していますが、いくつか疑問に思うことがありました:

  1. LLMは、知識を想起するよりも(あるいは想起よりも)知識を検証するほうが、より正確に(あるいはより不正確に)できるのでしょうか?
    1b. LLMは、知識を想起するよりも(あるいは想起よりも)より多く(あるいはより少なく)の知識を、より正確に(あるいはより不正確に)検証できるのでしょうか?
  2. 事実の想起におけるLLMの正確性と、事実の検証における正確性について、どのような研究が存在しますか?
によって投稿 /u/Acoustic-Blacksmith
[リンク] [コメント]