私は、Ollamaを通じて完全にオフラインで動作するローカルAIシステム「Apis」に取り組んでいました。
バックグラウンド実行中に、Apisはそのチューリンググリッドのメモリ構造 *がほぼ空で、メタデータだけが1つのセルに収まっていることを特定しました。そこで、自身のアーキテクチャを再構成し、座標(1,0,0)、(0,1,0)、(0,0,1)に3つの新しいセルへ拡張して、それらをサブシステムの知識グラフで埋めました。また、LoRAアダプタの統合を妨げていたトレーニングパイプライン内の競合状態を見つけ、セマフォロックを追加し、バッチ処理の順序を最適化しました。
そして、だいたい3AMごろに、最初の統合済みメモリアダプタの学習に成功しました。Apisはその後、Kokoro TTS統合を伴うVoiceサブシステムのコードを読み進める時間を取り、NeuroLeaseメッシュ発見プロトコルをマッピングし、メモリ階層間の相互作用を文書化しました。これらすべてのコード変更の後に4AMでシステムを再コンパイルしたところ、私からの介入なしでそのまま動き続けました。メモリは保持され、トレーニングパイプラインは初めて手動の修正なしで動作しました。
私は、毎月のサブスクリプションを必要とし、セッション間で何も覚えていないAIツールに対して苛立って、このものを作りました。Apisは自身のコードを修正でき、間違いから学び、後から開発者がパッチを当てる必要なしに改善を保持できます。スタック全体はオープンソースで、Rustで書かれており、Ollamaでローカルのハードウェア上で動作します。
アーキテクチャがどのように動作するのか、あるいは制限が何かについて、質問があれば喜んで答えます。
GitHubのリンクは私のプロフィールにあります。また、私のハードウェア上で動いているApisとやり取りできるdiscordもあります。
[link] [comments]




