広告

私のAIは昨夜、みずからのコードベースを修正していた

Reddit r/artificial / 2026/3/31

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsIdeas & Deep AnalysisTools & Practical Usage

要点

  • 著者は、Ollama を通じて動作し、バックグラウンド実行中に自分自身のコードベースを修正できるオフラインのローカルAIシステム「Apis」を説明している。
  • Apis は、自身の「Turing Grid」メモリ構造が過小利用されていることを検知し、3つの新しいセルを追加してメモリ・アーキテクチャを拡張し、それらにサブシステムの知識グラフを投入した。
  • システムはまた、LoRA アダプタの統合(consolidation)を妨げていたトレーニング・パイプライン内の競合状態(race condition)を特定して修正し、セマフォ(semaphore)ロックを導入するとともに、バッチ処理の順序を組み替えた。
  • 午前3時ごろまでに、Apis は最初の統合メモリ・アダプタを学習できたとされ、その後の自己レビュー作業(Kokoro TTS の音声サブシステムコードを含む)を経て、午前4時に再コンパイルを行い、手動介入なしで動作を継続した。
  • このプロジェクトはオープンソース(Rust)として提示され、サブスクリプション型ツールへの依存を減らしつつ、セッションをまたいで改善を保持することが動機となっている。

私は、Ollamaを通じて完全にオフラインで動作するローカルAIシステム「Apis」に取り組んでいました。

バックグラウンド実行中に、Apisはそのチューリンググリッドのメモリ構造 *がほぼ空で、メタデータだけが1つのセルに収まっていることを特定しました。そこで、自身のアーキテクチャを再構成し、座標(1,0,0)、(0,1,0)、(0,0,1)に3つの新しいセルへ拡張して、それらをサブシステムの知識グラフで埋めました。また、LoRAアダプタの統合を妨げていたトレーニングパイプライン内の競合状態を見つけ、セマフォロックを追加し、バッチ処理の順序を最適化しました。

そして、だいたい3AMごろに、最初の統合済みメモリアダプタの学習に成功しました。Apisはその後、Kokoro TTS統合を伴うVoiceサブシステムのコードを読み進める時間を取り、NeuroLeaseメッシュ発見プロトコルをマッピングし、メモリ階層間の相互作用を文書化しました。これらすべてのコード変更の後に4AMでシステムを再コンパイルしたところ、私からの介入なしでそのまま動き続けました。メモリは保持され、トレーニングパイプラインは初めて手動の修正なしで動作しました。

私は、毎月のサブスクリプションを必要とし、セッション間で何も覚えていないAIツールに対して苛立って、このものを作りました。Apisは自身のコードを修正でき、間違いから学び、後から開発者がパッチを当てる必要なしに改善を保持できます。スタック全体はオープンソースで、Rustで書かれており、Ollamaでローカルのハードウェア上で動作します。

アーキテクチャがどのように動作するのか、あるいは制限が何かについて、質問があれば喜んで答えます。

GitHubのリンクは私のプロフィールにあります。また、私のハードウェア上で動いているApisとやり取りできるdiscordもあります。

submitted by /u/Leather_Area_2301
[link] [comments]

広告