要旨: タスクベクトル(モデルまたは活性化空間における、タスク固有の振る舞いを符号化する方向)は、大規模言語モデル(LLM)を制御するための有望な手段として登場している。 しかし、既存の手法は通常、微調整、または内部状態への侵入的な操作を必要とするため、その柔軟性とスケーラビリティが制限される。我々は extsc{DeCoVec}(Decoding Space based Task Vector)を提案する。これは学習不要かつ非侵襲的な枠組みであり、文脈内学習(ICL)を活用することで、 extit{復号(デコーディング)空間}上にタスクベクトルを直接構築する。具体的には、 extsc{DeCoVec} は few-shot プロンプトと zero-shot プロンプトの出力ロジット分布の差としてタスクの本質を捉え、そのベクトルを復号プロセスへ注入することによって生成を誘導する。TruthfulQA、Math-500、AQUA-RAT において、7つの LLM(0.5B〜9B)で行った実験では、 extsc{DeCoVec} が標準的な few-shot ベースラインを一貫して上回り、平均精度で最大 +5.50 の改善が見られた。さらに分析すると、 extsc{DeCoVec} は、デモンストレーションの順序に対して強い頑健性を示しつつ、生成の退化や論理的な欠陥を効果的に抑制することが確認でき、加えて追加の入力トークンコストも一切発生しない。我々の手法は、重み更新や補助モデルを必要としない、LLM 制御のための学習不要かつ非侵襲的な解決策を提供する。
DeCoVec:イン・コンテキスト学習によって大規模言語モデルの復号空間上にタスクベクトルを構築し、デコーディングを制御する方法
arXiv cs.CL / 2026/4/14
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- DeCoVecは、イン・コンテキスト学習を用いて復号空間上に「タスクベクトル」を構築することで、大規模言語モデルを制御するための学習不要・非侵襲な手法を提案する。
- 少数ショットとゼロショットのプロンプトに対する出力ロジット分布の差としてタスクベクトルを導出し、そのベクトルを生成中に注入してデコーディングに影響を与える。
- TruthfulQA、Math-500、AQUA-RATの3つのベンチマークで、7つのLLM(0.5B〜9B)に対して実験したところ、標準的な少数ショット基準に比べて一貫した改善が確認され、平均精度で最大+5.50の向上が報告されている。
- この手法は、生成の退化や論理的な欠陥といった問題を低減し、デモンストレーションの順序に対しても頑健であり、追加の入力トークンコストを一切増やさない。
- 重み更新や補助モデルを回避することで、DeCoVecは、微調整や侵襲的な状態操作を必要とする従来のタスクベクトル手法よりも、LLMの制御をより柔軟かつスケーラブルにすることを目指している。

