自己知識の再表現:内在的な知識を用いてタスクに適応する完全ローカル手法
arXiv cs.CL / 2026/4/28
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、次トークン予測パラダイムがもたらす制約により、LLMの内在的知識の「表現の仕方」が、専門的で非生成的なタスクでの性能を押し下げていると主張しています。
- 自己知識の再表現(SKR)という、タスクに依存しない適応手法を提案し、汎用的なトークン生成から、効率的なタスク固有の出力へと変換します。
- SKRは完全ローカルな手法で、教師ありの人間の監督やモデル蒸留を必要とせず、未注釈データのみを使います。
- 金融文書データでの実験では、情報検索(Recall@1で40%以上)、物体検出(レイテンシ76%以上の削減)、異常検知(AUPRCで33%以上の向上)など、複数タスクで大幅な改善が報告されています。
- MMDocRAGデータセットでは、先行のリトリーバルモデルに対して少なくとも12.6%上回る結果を示しています。

