自己知識の再表現:内在的な知識を用いてタスクに適応する完全ローカル手法

arXiv cs.CL / 2026/4/28

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、次トークン予測パラダイムがもたらす制約により、LLMの内在的知識の「表現の仕方」が、専門的で非生成的なタスクでの性能を押し下げていると主張しています。
  • 自己知識の再表現(SKR)という、タスクに依存しない適応手法を提案し、汎用的なトークン生成から、効率的なタスク固有の出力へと変換します。
  • SKRは完全ローカルな手法で、教師ありの人間の監督やモデル蒸留を必要とせず、未注釈データのみを使います。
  • 金融文書データでの実験では、情報検索(Recall@1で40%以上)、物体検出(レイテンシ76%以上の削減)、異常検知(AUPRCで33%以上の向上)など、複数タスクで大幅な改善が報告されています。
  • MMDocRAGデータセットでは、先行のリトリーバルモデルに対して少なくとも12.6%上回る結果を示しています。

Abstract

次トークン予測(NTP)パラダイムは、大規模言語モデル(LLM)がその内在的な知識を表現できるようにしますが、その逐次的な性質が、専門的で非生成的なタスクにおける性能を制約します。私たちは、この性能ボトルネックを、知識獲得の不備ではなく、LLMの知識表現メカニズムに起因すると考えます。そこで、この課題に対処するために、タスク非依存の新しい適応手法であるSelf-Knowledge Re-expression(SKR)を提案します。SKRは、LLMの出力を、汎用的なトークン生成から、高い効率をもつタスク固有の表現へと変換します。SKRは完全にローカルな手法であり、未注釈データのみを用いて、人間による監督もモデルの蒸留も必要としません。大規模な金融ドキュメントデータセットでの実験により、大幅な改善が示されています。情報検索タスクにおいてRecall@1が40%以上向上し、物体検出のレイテンシーは76%以上削減され、異常検知のAUPRCは33%以上増加しました。MMDocRAGデータセットでの結果は、主要な検索モデルのそれを少なくとも12.6%上回ります。