要旨: Sparse Attention Vectors (SAVs) は、教師ありファインチューニングや低ランク適応による性能向上のための優れたトレーニング不要の代替手段として現れている。SAVs の核となるのは、関心のあるタスクに対していくつかの正確なアテンションヘッドを選択し、それらを分類器として用いることで、モデルの予測に依存しない。これと同様の趣旨で、VLM の生の活性値をスカラー値の形で直接検査することは、多様な視覚的に基づく下流タスクで正確な分類器を得るのに十分であることを見出した。アテンションベクトルからスカラー活性へ焦点を移すことで、正確なパラメータの探索空間が大幅に拡張され、第一生成トークンからすぐにより識別性の高いニューロンを見つけることができる。こうした活性を「スーパー・ニューロン(SNs)」と呼ぶ。この検査設定では、大規模言語モデルの浅い層に十分な SNs が現れ、モデルの第一層から第一生成トークンで極端な早期退出を可能にすることが分かった。元のネットワークと比較して、SNs は分類性能を堅牢に改善しつつ、最大で 5.10x の速度アップを実現する。
Super Neurons を用いたカテゴリ型 VQA のショートカット
arXiv cs.CV / 2026/3/12
📰 ニュースModels & Research
要点
- 著者らは Super Neurons (SNs) を提案する:視覚と言語モデルのスカラー活性を検出し、多様なタスクに対してトレーニング不要の高精度分類器を構築する。
- SNs は浅い層で識別的なニューロンを検出することで極端な早期退出を可能にし、最初に生成されるトークンでの退出を許容し、計算を削減する。
- ベースラインと比較して、SNs は分類性能を向上させつつ最大で 5.10 倍の高速化を実現する。
- このアプローチはスパースアテンションベクトルから生の活性値へ焦点を移し、視覚と言語モデルにおけるタスク特有の分類器のパラメータ探索空間を拡張する。


