広告

視覚言語モデルの構造グラフ・プロービング

arXiv cs.CV / 2026/3/31

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、各層をニューロンの共活性に基づいて構築される同一層内の相関グラフとして扱うことで、視覚言語モデルを解析し、計算を「ニューラル・トポロジー」という観点から捉えることを可能にする。
  • 相関トポロジーには回復可能な行動(ベイビア)の信号が含まれており、モダリティやネットワークの深さに応じて体系的に変化することを見出す。
  • 深さが増すにつれて、層間でのクロスモーダルな構造が、比較的コンパクトな反復ハブ・ニューロンの集合の周りでより統合されていくことを示す。
  • これらのハブ・ニューロンに対する狙いを定めた摂動(パートバーブ)によりモデル出力が大きく変化し、同定された構成要素が因果的に重要であることを示唆する。
  • 著者らは、ニューラル・トポロジーを解釈可能性(インタープリタビリティ)のための有用な中間表現として位置づける。すなわち、局所的アトリビューションより情報量が多い一方で、回路レベルでの完全な復元よりも扱いやすいとし、コードを公開する。

Abstract

視覚言語モデル(VLM)は強力なマルチモーダル性能を達成しますが、ニューラル集団にわたって計算がどのように組織化されているのかは、いまだ十分に理解されていません。本研究では、各層をニューロン間の共活性化から導出される「層内相関グラフ」として表し、ニューラルトポロジーの観点からVLMを調べます。この見方により、集団レベルの構造が行動(振る舞い)的に意味を持つのか、それがモダリティや深さにわたってどのように変化するのか、さらに介入によって因果的に影響力のある内部構成要素を特定できるのかを問うことが可能になります。相関トポロジーには回復可能な行動信号が含まれていることを示します。さらに、モダリティをまたいだ構造は、深さとともに、反復的なハブ・ニューロンのコンパクトな集合の周りで漸進的に統合されていき、このハブに対する狙いを定めた摂動はモデル出力を大きく変化させます。したがって、ニューラルトポロジーは、VLMの解釈可能性にとって意味のある中間スケールとして現れます。局所的な帰属よりも豊かで、全回路の回復よりも扱いやすく、そして実験的にマルチモーダルな振る舞いと結び付いています。コードは https://github.com/he-h/vlm-graph-probing で公開されています。

広告