SinkTrack: 大規模言語モデルのためのAttention Sinkに基づくコンテキストアンカリング
arXiv cs.CV / 2026/4/14
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- SinkTrackは、生成中に<BOS>トークンへ高い注意(attention)を保ち続ける傾向のある固有の「attention sink」挙動を活用する、LLM向けの提案するコンテキストアンカリング手法である。
- この手法は、入力指示や画像などの主要な文脈特徴を<BOS>表現へ注入し、注意のドリフトを抑えることで、幻覚や文脈の忘却を緩和する。
- SinkTrackは学習不要(training-free)、プラグアンドプレイであり、推論時のオーバーヘッドはごくわずかであるため、既存のLLMパイプラインへの統合が現実的である。
- 報告された実験では、アーキテクチャや規模をまたいで、テキストおよびマルチモーダルの両ベンチマークで一貫した改善が示されている(例:Llama3.1-8B-InstructでSQuAD2.0が+21.6%、Qwen2.5-VL-7B-InstructでM3CoTが+22.8%)。
- 本論文は、情報伝達の観点からメカニズムの分析を含み、オープンソースのコードも提供している。




