サッカード・アテンション・ネットワーク:注意の転移学習でネットワークサイズを削減する
arXiv cs.CV / 2026/4/21
📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research
要点
- 本論文は「サッカード・アテンション・ネットワーク」を提案し、全シーケンスではなく、最も関連性の高い特徴だけを処理するために注目箇所を学習します。
- 大規模な事前学習モデルからの転移学習を用いて、注目に基づく画像の前処理を行うネットワークを学習します。
- 注目された主要特徴のみによって入力シーケンス長をスパースに削減することで、トランスフォーマーの注意計算に伴う二次的コストを緩和します。
- 実験では、標準的なフルアテンションと比べて計算量を約80%近く削減し、同等の性能が得られると報告されています。




