私は、LLMが、私の代わりに直接引用することができない、あるいはしないはずの正確な引用を、たまたま正しく検証しているのを見たことがあります。私は、それらが、潜在的に著作権で保護されたコンテンツを引用することを避けるように訓練されていること、そしてそれがもたらす意味合いについては理解していますが、いくつか疑問に思うことがありました:
- LLMは、知識を想起するよりも(あるいは想起よりも)知識を検証するほうが、より正確に(あるいはより不正確に)できるのでしょうか?
1b. LLMは、知識を想起するよりも(あるいは想起よりも)より多く(あるいはより少なく)の知識を、より正確に(あるいはより不正確に)検証できるのでしょうか? - 事実の想起におけるLLMの正確性と、事実の検証における正確性について、どのような研究が存在しますか?
[リンク] [コメント]