皆さん、こんにちは。
余暇を使ってマルチエージェントシステムを作っていて、リポジトリをオープンソースしました。定番の「テキスト入力/テキスト出力」チャットのやり方に飽きて、本当に状況に根ざしたAI――クラウドAPIを1つも叩かずに、物理環境と自分の生理状態をリアルタイムに実際に認識する――を作りたかったんです。Framework 128GBのデスクトップに、amd v620 32GB oculink を minis forum deg1 経由で使っています。
リポジトリ: [https://github.com/anitherone556-max/Project-Aurelia.git]
TL;DR:
Project Aurelia は、完全にローカルで、生体情報に配慮したマルチエージェントのアーキテクチャです。継続的に心拍、呼吸、近接性、そしてシステムの熱を読み取り、それらの指標を「生物学的」状態に変換して、80B MoE のエグゼクティブモデルの振る舞いループに注入します。
認知スタック & ハードウェア構成
メインの会話モデルがバックグラウンドの処理で飢餓状態にならないようにするため、計算を分割した構成で動かしています:
- エグゼクティブ・コルテックス(80B MoE - Qwen3-Next-A3B): Framework デスクトップ(Strix Halo)上で、96GB の統合メモリを活用して PCIe のボトルネックをなくします。中核となる推論、ムード状態、UI配信を扱います。
- 感覚の視床(9B - Qwen3.5): これも統合メモリ上で動作します。信号変換のレイヤーとして機能します。センサーから得た生のハードウェア配列を受け取り、臨床的な「生物学的」観測へと変換します。 (例:「80B に “HR: 120” を渡す」のではなく、「[PULSE]: 脈動。緊張していて、心拍が速く駆けている」という形で渡します)。これによりAIの人格(パーソナ)を維持し、ハードウェアの数値を隠します。
- 潜在意識のアクション・エンジン(13B): Radeon Pro V620 上で物理的に隔離し、OCuLink 経由で接続しています。バックグラウンドで自律的な Python 実行、Web検索、ファイル解析を回します。専用のシリコンがあるため、80B の処理を遅らせずに重い推論ループを回せます。
センサー・パイプライン(オムニ・ハブ)
- FMCW mmWave レーダ(60GHz): 生の I/Q 信号データを 20 秒のローリングバッファに取り込み、FFT パイプラインで心拍と呼吸を抽出します。
- VL53L1X LiDAR: デスクにおける自分の物理的な存在と距離を検証します。
- HWiNFO 共通メモリ: 実際の CPU/GPU の温度を読み取ります。(私は、ハードウェアで制御された「不安定」なムードロックを作りました――80B は、実際のシリコン温度が危険閾値を超えない限り、危機レベルの行動反応を投げられません)。
心拍が急上昇すると、オムニ・ハブはそのばらつきを検出し、「視床インタラプト(Thalamic Interrupt)」を非同期オーケストレータへ直接発火させます。これにより80Bは現在のタスクを中断し、即座に自分の生理状態に反応します。
メモリ
ハイブリッド RRF(Reciprocal Rank Fusion)のメモリエンジンを使い、セマンティック検索には ChromaDB、完全な BM25 キーワード一致には SQLite FTS5 を組み合わせています。さらに、ムードに整合したリトリーバルの倍率も組み込みました。80B が「分析的」または「防御的」なムードに移行すると、その同じ状態として符号化された長期記憶が優先的に表に出てくるようになります。
これは一人でこの1か月かけて作りました。FFT による生体指標の抽出はうまく動きますが、動きによるアーティファクトの影響を受けやすいので、次は VMD か CNN の再構成を検討しています。
このコミュニティには、アーキテクチャを分解してロジックをテストしたり、フォークしたりしてほしいです。みなさんの意見を聞かせてください!
[link] [comments]



