コントラスト付きデコーディングによる命令チューニング用データセットの合成
arXiv cs.CL / 2026/4/16
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、命令チューニングのために用いられるLLM生成応答がしばしば事前学習で獲得した世界知識と、事後学習による命令追従スキルを取り違えて混ぜ合わせてしまい、その結果として得られる命令チューニング信号の純度が低下する、と主張している。
- 後処理(ポストトレーニング)モデルと事前学習モデルの間でコントラスト付きデコーディングを行うCoDITを導入し、応答生成時に共有される事前学習知識を抑制しつつ、命令追従行動を増幅する。
- 実験の結果、CoDITで合成した命令チューニング用データセットは、生成応答をそのまま用いて構築したデータセットよりも、下流のモデル性能が一貫して良好であることが示されている。
- 著者らは、CoDITで構築した学習データが、複数のベンチマークにおいて、いくつかの既存の公開されている命令チューニング用データセットよりも優れていることを報告している。
- CoDITは、パラメータ空間からテキスト空間へと、命令追従の「チャットベクトル」情報を転送(蒸留)するものとして捉えられることを、理論的および実証的な証拠で示しており、異なるモデルアーキテクチャ間での能力移転を可能にするとしている。




