私は、すべての計算が3つのビット演算――XOR、MAJ、POPCNT――に還元される認知アーキテクチャを構築しました。GEMMはありません。GPUもありません。浮動小数点の重みもありません。
中核となる考え方はこうです。トランスフォーマの注意(attention)は類似性の計算です。Float32のコサインはそれを24,576 FLOPsで計算します。バイナリ・スパッタ・コード(Binary Spatter Codes)は、同じ幾何学的計測を128ビット演算で行います。測定結果:演算は192倍少なく、メモリは32倍少なく、~480倍高速です。
Cで1237行、26モジュール。ファイルは1つ。あらゆるハードウェア向け:
cc -O2 -o creation_os creation_os_v2.c -lm
JEPAスタイルの世界モデル(エネルギー = σ)、n-gram言語モデル(attention = σ)、物理シミュレーション(ノエザー保存 σ = 0.000000)、改ざん検知付きの価値システム、複数モデルによる真実の三角測量、メタ認知、感情的記憶、心の理論、そして他にも13の認知モジュールを含みます。
これは、バイナリ・スパッタ・コード(Kanerva, 1997)上に構築された研究プロトタイプです。認知プリミティブがビット演算として表現できることを示します。これはLLMの代替ではありません――言語モジュールは15文で動作します。しかし、代数は現実で、ベンチマークは計測されており、アーキテクチャは公開されています。
https://github.com/spektre-labs/creation-os
AGPL-3.0。フィードバック歓迎。
[リンク] [コメント]




