KoCo:知識座標に基づく条件付けによる言語モデルの事前学習
arXiv cs.CL / 2026/4/15
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文はKoCo(Knowledge Coordinate Conditioning)を提案しており、文書を3次元のセマンティックな「知識座標」に変換し、LLMの事前学習中にそれをテキストのプレフィックスとして先頭に付加することで、現実世界の文脈を保持する。
- 実験では、標準的なフラット化されたトークン列の事前学習と比べて、10のタスクにおける下流性能の向上が報告され、さらに事前学習の収束が約30%速い。
- この手法は、知識構造を明示的にモデル化することで、安定した事実とノイズを分離しやすくなり、幻覚(ハルシネーション)を減らすのに役立つと主張している。
- 本アプローチは、根本的に新しいアーキテクチャというより、事前学習パイプラインへの比較的単純な改変として位置づけられている。
