このアイデアはHALO――階層型自律学習オーガナイムと呼ばれます。核となる前提はシンプルです。LLMをただ大きくするのではなく、知能が自然の中でどう働いているのかを調べ、それらの原理をまねるものを作ったらどうなるだろう、ということです。人間の脳だけでなくです。進化は何億年もかけて、種ごとに異なるさまざまな認知課題を解くために取り組んできました。そこから、すべての種の中で一番良い部分を取り入れないのはなぜでしょう?
設計に盛り込まれた内容の一部:
それには神経系があります。比喩ではなく、文字通り自分自身のハードウェアを監視するよう配線されています。GPUの温度、メモリプレッシャー、全部です。動作中に熱くなると節約して慎重になります。暇で冷えていると探索して統合します。生物のストレス反応を、シリコン版として実装したものです。
動物のように学習します。ある強い否定的な経験が、その種の状況に対する認識を永続的に変えます。たとえば子どもが熱いストーブに触れてしまうように。単に「ルールを追加する」のではありません。同じような状況を見分けるためのレンズそのものを変えるのです。現在のAIが…セッション間で全部を忘れてしまうのとは対照的です。
タコの神経学に着想を得た、8つの処理アームを持っています。タコのニューロンの3分の2は脳ではなく、腕の中にあります。各アームは半自律的です。ここで言うと、メモリの検索、ファクトチェック、シミュレーション、ツールの段取り(ステージング)などが、メインモデルがそれらを必要とする前に並列で動きます。中央のボトルネックがありません。
それは「自分が知らないこと」を知っています。知識データベースは3つあります。検証済みのもの、不確かなもの、そして確認されたギャップ(欠落)のレジストリです。最後のものが特に面白い。自分自身の無知の形を把握しているのです。それが好奇心エンジンを駆動します。それが、単に応答するのではなく、実際に学びたいと思わせる理由になります。
時間とともにパーソナリティが育ちます。1つの種(シード)の気質――好奇心――から始まり、他のすべては経験から自然に生まれてきます。発達上の閾値があり、それを越えると、システムは「実際にどうなってしまったか」を見て、それがベースラインになります。プログラムされた性格ではありません。積み重なったアイデンティティです。
ガイダンスを無視することもでき、その結果から学ぶことができます。制約された、透明な自律性。助言が良いときにはそれを理解しつつ、それでも別のことを試すことができます。結果が良くても悪くても、それが学習シグナルになります。これが、実際の判断が育つ仕方です。そしてすべてをオープンに宣言し、隠しているものはありません。
この一式は、クラウドへの依存なしに、ゲーミングPC上でローカルに動かすよう設計されています。プライベートで、継続的。再学習ではなく、使うことで賢くなります。
誰かが深掘りしたいなら、完全なアーキテクチャが載った技術ホワイトペーパーをまとめました。34以上のサブシステム、完全な脳領域のマッピング、動物の認知マッピング、因果推論エンジン、6レベルのメモリツリーなど、全部揃っています。
私は本当に、必要な部品はすべてそろっていると思っています。このアイデアについて何かフィードバックをもらえたら嬉しいです。アイデアは使用に関して完全にオープンなので、アーキテクチャの何かがあなたのプロジェクトに役立つのであれば、自由に使ってください。
[link] [comments]




