私は過去1年をかけて、NIMCP――C言語で生物学的に着想を得た人工脳――を構築してきました。これは、6種類の異なるニューラルネットワーク型(スパイキング、リキッド、畳み込み、フーリエ、ハミルトニアン、アダプティブ)を同時に学習し、それらの間に学習可能なブリッジによる勾配フローを通します。
このコミュニティにとって面白いかもしれない点:
- 開発したSNNは、正則化でその値を狙うことなく、67%のスパース性で26 Hzの発火率を達成しました――哺乳類の大脳皮質の範囲内です。これはネットワーク間の学習
圧力から生まれました。
- 安全性は行動ではなく構造です。倫理モジュールは推論コードパス上の関数呼び出しであり、学習された重みではありません。微調整で取り除くことも、ジェイルブレイクすることもできません。統治ルールはより厳格になるだけです。これはソースを読めば検証できます。
- 脳は好奇心を通じて学習します:予測誤差 → ドーパミン → STDPのゲーティング。報酬関数はありません。
- トレーニングは4段階の発達カリキュラムに従います(感覚→命名→フィードバック→推論)。現在はステージ2にあります。ウェブサイト上でライブに学習の様子を見られます――指標は60秒ごとに更新されます。
- 2,600のソースファイル、240のPython APIメソッド、8つの言語バインディング。システムは単一のRTX 4000(20 GB VRAM)で動作します。
サイトには、数学、学習手法、安全性のアーキテクチャ、創発的ダイナミクスを扱う8本の技術論文があります。
コード:https://github.com/redmage123/nimcp
アーキテクチャ、学習ダイナミクス、あるいは、発達段階を通じて知能を育てることが、トランスフォーマーのスケーリングと異なる形で機能すると思う理由についての質問には喜んでお答えします。
[リンク] [コメント]




