我々は、
a \citet{park2024linear}
が定義した因果内積(埋め込み解除共分散 \Sigma によって定義される)が、言語をまたいだ概念輸送を可能にするかどうかを検証する。17のモデルと4つの言語ペアにわたって、スペクトル一致のランダム化検定を行うと、ホワイトニングされた因果アラインメントはスペクトル正則化のみからは区別できないことが分かる(p = 0.95)。しかし、この失敗はより広い現象を明らかにする。すなわち、5つのアーキテクチャ・ファミリにわたって残差ストリーム差の平均ベクトルに反集中(anti-concentration)が観測される(p < 10^{-33})。また、この傾向はSAEの特徴によっても裏付けられる(例: p = 4.5 \times 10^{-19})。さらに、GemmaとLlamaに対する線形プローブでも支持される。そこで我々は、\emph{二重の幾何}を発見する。すなわち、活性空間における概念方向はスペクトルの裾(tail)で反集中する一方で、静的な埋め込み解除行(unembedding-row)のコントラストは高分散方向で\emph{集中する}(p < 10^{-4})。Split-injectionによる因果介入は、GemmaおよびLlama上での機能的基底を支持する(Cohen's d は最大で1.80)。加えて、8つのモデルにわたる品詞タグ(POS-tag)プロービングでは、8つのうち6つのアーキテクチャにおいて、構文が高分散部分空間に優先的にエンコードされることが示される(p < 0.013)。さらにQwen~2.5ファミリでは、アーキテクチャ固有のスペクトル構造と整合する有意な反転が観測される。これらの結果は、トランスフォーマーが文脈化された処理の過程で、意味内容をスペクトル的に静かな領域へと回転させうること、そして文法的な攪乱を抑えながら操作可能な形で概念をエンコードしている可能性を示唆する。




