データ統計から特徴幾何学へ:相関が重ね合わせを形成する方法

arXiv cs.LG / 2026/3/11

Ideas & Deep Analysis

要点

  • 本論文は、ニューラルネットワークが次元数よりも多くの特徴を重ね合わせ(superposition)を通じて表現する方法を探求しており、これまでの研究はまばらで非相関な特徴に関する仮定の下で行われてきた。
  • Bag-of-Words Superposition(BOWS)を導入し、相関のある特徴がノイズとしてではなく建設的な干渉を引き起こすことを、特徴の共起パターンに基づく配置によって示した。
  • この建設的干渉が意味的クラスタリングや言語モデルにおける周期的構造を支えており、これらは従来の標準的な重ね合わせ理論では説明されなかった現象である。
  • 重み減衰(Weight Decay)を使って訓練されたモデルでは、このような特徴配置が自然に促進されることを示し、特徴幾何学やメカニズムの解釈性に関する新たな洞察を示唆する。
  • 本研究は実践的な解析を伴う新しい理論的理解を提供し、さらなる研究を促進するために公開されたコードをサポートしている。

コンピュータサイエンス > 機械学習

arXiv:2603.09972 (cs)
[2026年3月10日 提出]

題名:From Data Statistics to Feature Geometry: How Correlations Shape Superposition

Lucas Prietoおよび他4名の著者による論文「From Data Statistics to Feature Geometry: How Correlations Shape Superposition」のPDFを表示
PDFを見る HTML(実験的)
要旨:機械論的解釈における中心的な考え方は、ニューラルネットワークが、それが持つ次元数よりも多くの特徴を表現し、それらを重ね合わせ(スーパーポジション)て、過完全な基底を形成しているという点です。この枠組みは影響力があり、スパースオートエンコーダのような辞書学習アプローチを動機づけてきました。しかし、重ね合わせは主に、特徴が疎でかつ相関のない理想化された設定で研究されてきました。このような設定では、重ね合わせは通常、干渉を導入するものとして理解され、その干渉は幾何学的に最小化され、ReLUのような非線形性によって除去され、整則多面体のような局所構造が得られる、と説明されます。本研究では、インターネット文書のバイナリなBag-of-Words表現を重ね合わせとして符号化するための制御された設定であるBag-of-Words Superposition(BOWS)を導入することで、この説明が現実的なデータには不十分であることを示します。BOWSを用いると、特徴が相関している場合、干渉は除去すべき単なるノイズではなく、建設的(建設的に働く)になり得ることが分かります。これは、特徴をその共活性化パターンに従って配置することで実現されます。つまり、活性化している特徴同士の干渉は建設的になる一方で、誤検出を避けるためにReLUをなお使用します。この種の配置は、重み減衰(weight decay)で学習されたモデルにおいてより広く見られ、実際の言語モデルで観測されている意味クラスタや周期的な構造が自然に生じることを示しますが、それらは重ね合わせに関する標準的な見取り図では説明されていませんでした。本論文のコードは この https URL にあります。
対象領域: 機械学習 (cs.LG); 知能の人工 (cs.AI); コンピュータビジョンとパターン認識 (cs.CV)
引用: arXiv:2603.09972 [cs.LG]
  (または arXiv:2603.09972v1 [cs.LG](この版))
  https://doi.org/10.48550/arXiv.2603.09972
詳細を学ぶためにフォーカス
DataCite経由のarXiv発行DOI

投稿履歴

作成者: Lucas Prieto [メールを表示]
[v1] 2026年3月10日(火) 17:59:02 UTC(18,358 KB)
全文リンク:

論文へのアクセス:

現在の閲覧コンテキスト:
cs.LG
< 前   |   次 >
切り替えて閲覧するには:
BibTeX引用のエクスポート 読み込み中...

BibTeX形式の引用

×
提供データ:

ブックマーク

BibSonomyロゴ Redditロゴ
書誌ツール

書誌および引用ツール

書誌エクスプローラーの切り替え
書誌エクスプローラー (エクスプローラーとは?)
Connected Papersの切り替え
Connected Papers (Connected Papersとは?)
Litmapsの切り替え
Litmaps (Litmapsとは?)
scite.aiの切り替え
scite スマート引用 (スマート引用とは?)
コード、データ、メディア

本論文に関連付けられたコード、データ、メディア

alphaXivの切り替え
alphaXiv (alphaXivとは?)
コードへのリンクの切り替え
論文向けCatalyzeXコードファインダー (CatalyzeXとは?)
DagsHub トグル
DagsHub (DagsHubとは?)
GotitPub トグル
Gotit.pub (GotitPubとは?)
Huggingface トグル
Hugging Face (Huggingfaceとは?)
コードへのリンク トグル
Papers with Code (Papers with Codeとは?)
ScienceCast トグル
ScienceCast (ScienceCastとは?)
デモ

デモ

Replicate トグル
Replicate (Replicateとは?)
Spaces トグル
Hugging Face Spaces (Spacesとは?)
Spaces トグル
TXYZ.AI (TXYZ.AIとは?)
関連論文

レコメンダーと検索ツール

Influence Flowerへのリンク トグル
Influence Flower (Influence Flowerとは?)
Core レコメンダー トグル
CORE レコメンダー (COREとは?)
IArxiv レコメンダー トグル
IArxiv レコメンダー (IArxiv とは?)
arXivLabs について

arXivLabs: コミュニティの協力者とともに行う実験的プロジェクト

arXivLabs は、協力者が当社のウェブサイト上で直接新しい arXiv の機能を開発し、共有できるようにするフレームワークです。

arXivLabs に取り組む個人および組織はいずれも、オープン性、コミュニティ、卓越性、ユーザーデータのプライバシーという当社の価値観を理解し、受け入れてきました。arXiv はこれらの価値観に取り組んでおり、それらを遵守するパートナーとのみ連携しています。

arXiv のコミュニティに価値を追加するプロジェクトのアイデアはありますか? arXivLabs について詳しく知る