3年前にLLMsに引き寄せられたのは、私の文脈に基づいてカスタムフィットされた知識を得る能力であり、検索エンジンがもたらすひどい信号対ノイズ比を回避することでした。
現在の主な焦点は、巨大なモデルにもかかわらず、できるだけエージェント的になるようにすることであり、パラメータ数が限られている中で、エージェント的なタスクに焦点を当てることは、他のタスクにおけるモデルの性能を確実に低下させるのではないかと思わずにはいられません。
できるだけ多くの知識を持つ、単純で愚かなモデルの訓練に焦点を当てるLLM研究所はありますか? 基本的にはオフラインの全知全能なウィキペディアの代替案のようなものですか?
[リンク] [コメント]