深層言語モデルにおける層更新の幾何学的構造について
arXiv cs.AI / 2026/4/6
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、内部で何が符号化されているかではなく、深層言語モデルにおける層間での隠れ表現の変化の幾何学的構造に注目しつつ分析する。
- 複数のアーキテクチャ(Transformerや状態空間モデルを含む)にわたって、層の更新全体の大部分は、支配的なトークンごとの成分に強く整合している一方、残差部分は幾何学的に異なっていることを見出す。
- 残差成分は整合の度合いが弱く、角度のずれが大きく、支配的なトークンごとの部分空間への射影が低いことが示されており、単なる小さな補正ではないことを示唆する。
- 著者らは、トークンごとの関数クラスを制限したもとでの近似誤差が出力の摂動と強く相関することを示し、大規模モデルではSpearman相関がしばしば0.7を超え、最大で0.95に達する。
- 彼らは、現代の言語モデルにおける層更新の幾何学的・機能的構造を調べるための、アーキテクチャ非依存の枠組みを提案する。



