Metriplector: From Field Theory to Neural Architecture

arXiv cs.AI / 4/1/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • Metriplectorは、入力が抽象的な物理システム(場・ソース・演算子)を構成し、その場のダイナミクスが計算そのものになる「ニューラルアーキテクチャ・プリミティブ」を提案しています。
  • 相互作用するメトリプレクティック(metr iplectic)ダイナミクスにより複数の場を同時に進化させ、Noetherの定理から得られる応力エネルギーテンソル T^{μν} を読出しとして用いる設計です。
  • 設定を「散逸ブランチのみ」にするとスクリーニングされたPoisson方程式が共役勾配で厳密に解ける枠組みが示され、さらに反対称Poissonブラケットを含めると画像認識や言語モデリングのための場のダイナミクスが実現されます。
  • 4領域で評価し、迷路経路探索で15×15→未見39×39へ一般化、構造注入なしで数独を高い確率で解くほか、CIFAR-100で小規模パラメータ、言語ではGPTベースラインより学習トークンを大幅に削減した性能を報告しています。

Abstract

We present Metriplector, a neural architecture primitive in which the input configures an abstract physical system--fields, sources, and operators--and the dynamics of that system is the computation. Multiple fields evolve via coupled metriplectic dynamics, and the stress-energy tensor T^{{\mu}{ u}}, derived from Noether's theorem, provides the readout. The metriplectic formulation admits a natural spectrum of instantiations: the dissipative branch alone yields a screened Poisson equation solved exactly via conjugate gradient; activating the full structure--including the antisymmetric Poisson bracket--gives field dynamics for image recognition and language modeling. We evaluate Metriplector across four domains, each using a task-specific architecture built from this shared primitive with progressively richer physics: F1=1.0 on maze pathfinding, generalizing from 15x15 training grids to unseen 39x39 grids; 97.2% exact Sudoku solve rate with zero structural injection; 81.03% on CIFAR-100 with 2.26M parameters; and 1.182 bits/byte on language modeling with 3.6x fewer training tokens than a GPT baseline.