広告

Attentionヘッド数がTransformerの近似に与える影響

arXiv stat.ML / 2026/4/1

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、Transformerの近似能力を解析し、特に「注意ヘッド数(attention heads)」が表現力に与える影響を理論面で明らかにしようとする研究である。
  • 一般化したD-retrievalタスクを導入して連続関数空間で密(dense)であることを示し、理論的枠組みの基礎を与えている。
  • ヘッド数が十分多い場合は効率的なε近似が可能だが、ヘッド数が少なすぎる場合はパラメータ数が少なくともO(1/ε^{cT})のオーダーでスケールするという上界・下界を提示している。
  • 非線形かつ実務的に関連のある設定でこの種の厳密な下界を初めて与えると主張しており、さらに単一ヘッドの場合に埋め込み次元がO(T)なら入力の完全記憶が可能で近似は主にフィードフォワード側で達成されることを示している。
  • 合成データと実データタスクの実験により、理論結果の実用的妥当性を検証している。

広告