ニューラルネットのための機能的類似度指標:活性領域解析によるパラメトリックな曖昧さの克服
arXiv cs.LG / 2026/4/21
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、ReLUニューラルネットで同一の機能写像が異なる重み配置(ニューロンの順列と正の対角スケーリング対称性)によって実現され得ることによる、表現上の曖昧さを扱います。
- 重みそのものではなく活性領域のトポロジーを解析することで、安定した正規形(カノニカル表現)と頑健な機能類似度指標を提案します。
- スケーリングの曖昧さは、重みベクトルのL2正規化と層ごとの補償により除去し、その後サンプルデータ上で二値の機能的サイン(署名)として活性領域の離散近似を生成します。
- 大きな二値ベクトル同士の比較に伴う計算ボトルネックを避けるため、Locality-Sensitive Hashing(MinHash)でJaccard係数を高速かつ統計的に近似し、ネットワーク間のニューロン対応付けはハンガリアン法で解きます。
- 理論および実験の両面で、この指標がニューロンの「フリッカー(flickering)」を抑え、小さな重み摂動に対して高い頑健性を示すことを示し、モデル統合、剪定(プルーニング)評価、転移学習、Explainable AIに資する枠組みを提示します。
関連記事

新しいモデルが出るたびに、当然ながら古いモデルは時代遅れになる
Reddit r/LocalLLaMA

NVIDIA DGX SparkフルスタックAIハッカソンで作ったものが総合1位に—『Starfire』から『Molecules AI』へ
Dev.to

進捗を失わない:VS Codeでプロ仕様のJupyterワークフローをセットアップする(Colabのタイムアウトともおさらば!)
Dev.to

AgentOSを作る:保険請求の「AWS Lambda」を目指している理由
Dev.to

状況はここまで来た——1年で何もかも変わった:Kimi、Minimax、Qwen、Gemma、GLM
Reddit r/LocalLLaMA