AI Navigate

高次帰納型から導かれる函子的ニューラルアーキテクチャ

arXiv cs.LG / 2026/3/18

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 著者らは組成的一般化をデコーダにおける函子性の問題として再定式化し、アーキテクチャに関するカテゴリ論的視点から保証と不可能性の結果を導出する。
  • 彼らは高次帰納型仕様を、空間のパス群oidからパラメトリック写像のカテゴリへのモノイダル函子としてニューラルアーキテクチャに実装し、パス構成子を生成器ネットワークへ、結合を構造的連結へと変換する。
  • 彼らは、構造的連結によって構築されたデコーダは厳密モノイダル函子であることを証明する(従って構成上、組成的である)。一方、ソフトマックス自己注意は、任意の非自明なタスクに対して函子性を持たない。
  • トーラス、円のウェッジ和(S^1 ∨ S^1)、およびクラインの壺を対象とした実験は、函子的デコーダの顕著な利得を示し、群関係タスクでの2〜2.7倍、5.5〜10倍、そして誤差ギャップの46%縮小を含む。

概要:ニューラルネットワークは構成的一般化において系統的に失敗する――既知の部品の新しい組み合わせに対して正しい出力を生成できない。私たちはこの失敗は構造的であることを示す:構成的一般化はデコーダの函子性に等価であり、この視点は保証と不可能性の結果の両方を生む。Higher Inductive Type(HIT)仕様をモノイダル函子を介して、ターゲット空間のパス群oidからパラメトリック写像のカテゴリへ写像することでニューラルアーキテクチャへ組み込む:パス構成子はジェネレータネットワークへ、構成は構造的連結へ、群関係を証明する2-セルは学習された自然変換へ。独立に生成された区間を構造的連結で組み立てたデコーダは厳密なモノイダル函子となる(構成による構成的性質)、一方でソフトマックス自己注意は任意の非自明な組成タスクに対して函子性を持たない。両方の結果はCubical Agdaで形式化されている。3つの空間での実験は全階層を検証する:トーラス(
abla Z^2
)上では、函子的デコーダは非函子的なデコーダより2〜2.7倍優れる;S^1 \/ S^1F_2)上では、タイプA/Bのギャップが5.5〜10倍に拡大する;クライン瓶(
abla Z \rtimes
abla Z
)上では、学習済みの2-セルが群関係を行使する語に対する誤差ギャップを46%縮める。