幾何学的安定性:表現に欠けていた軸

arXiv stat.ML / 2026/4/21

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、表現が摂動に対してどれだけ頑健に“距離構造”を保つかを測る「幾何学的安定性」を提案し、表現の類似度だけでなく頑健性も評価できるようにします。
  • 提案する指標Sheshaは、補完的な特徴サブセットから作った表現非類似度行列のsplit-half相関で自己整合性を測り、既存のCKAやProcrustesのように直交変換不変ではないため、圧縮に伴うマンifold構造の損傷を検出できます。
  • スペクトル解析から、類似度指標は上位主成分を除くと崩れる一方で、安定性は固有値全体(eigenspectrum)にわたって感度を保持することが示されます。
  • 言語・画像・音声・動画・タンパク質配列など7ドメインにまたがる2,463のエンコーダ構成で、安定性と類似度がほぼ無相関(ρ ≈ -0.01)であることが実験的に確認されます。
  • さらに、94の事前学習モデルに対する適用では「幾何学的な税」が観測され、移​​送学習で上位のDINOv2が6データセット中5つで幾何学的安定性が最下位となり、コントラスト的整合や階層的アーキテクチャが安定性と関連することも報告されています。

抄録: 表現の類似性分析や関連手法は、ニューラルネットワークと生物学的システムの内部幾何構造を比較するための標準的なツールになってきました。これらの手法は、何が表現されているか、2つの表現空間間の整合(アラインメント)を測定しますが、その構造が頑健であるかどうかは測れません。私たちは、表現品質の別個の次元である「幾何学的安定性(geometric stability)」を導入します。これは、摂動のもとで表現のペアごとの距離構造がどれだけ確実に保たれるかを定量化するものです。私たちの指標 Shesha は、補完的な特徴サブセットから構成した表現非類似性行列の分割半分相関(split-half correlation)を通じて自己整合性(self-consistency)を測定します。安定性と類似性を区別する重要な形式的性質があります。すなわち Shesha は、CKA や Procrustes とは異なり、特徴空間の直交変換に対して不変ではありません。この性質により、類似性指標では見えない、圧縮(compression)に起因するマンifold構造の損傷を検出できます。スペクトル分析はそのメカニズムを明らかにします。類似性指標は上位の主成分を取り除くと崩れてしまうのに対し、安定性は固有値スペクトル全体にわたって感度を維持します。7つの領域――言語、視覚、音声、動画、タンパク質配列、分子プロファイル、ニューラル集団記録――にまたがる 2463 のエンコーダ設定において、安定性と類似性は経験的に相関していません( ho=-0.01)。状況分析(レジーム分析)により、この独立性は相反する効果によって生じることが示されます。すなわち、幾何を保つ変換はこれらの指標を冗長にし、圧縮はそれらを反相関させるため、集約すると打ち消し合います。6つのデータセットにまたがる 94 の事前学習済みモデルに適用すると、安定性は「幾何学的な税(geometric tax)」を明らかにします。転移学習で最上位のモデルである DINOv2 は、6つのデータセット中 5/6 で幾何学的安定性の順位が最下位です。対照整合(contrastive alignment)と階層型アーキテクチャは安定性を予測し、表現の信頼性が重要となるデプロイ環境におけるモデル選択に向けた実用的な指針を提供します。