Project Aurelia — mmWaveレーダー・LiDAR・加速度計で心拍などに物理的に反応する、80B+13B+9Bの3モデル構成

Reddit r/artificial / 2026/4/28

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Project Aureliaをオープンソースとして公開し、クラウドAPIに頼らない完全ローカルの「状況認識型」マルチエージェント構成を提案しています。
  • 心拍・呼吸・接近(距離)・PCの熱などの実時間バイオメトリクス/環境データを取得し、それらを「生物学的状態」の表現に変換したうえで、80B MoEの行動ループへ注入します。
  • 80B MoE(Qwen3-Next-A3B)を「Executive Cortex」、9B(Qwen3.5)を「Sensory Thalamus」、13Bを「Subconscious Action Engine」として役割分担し、統合メモリや分離実行でメイン対話の遅延を抑える設計です。
  • FMCW mmWaveレーダー(I/Q→FFTで心拍・呼吸を推定)、LiDAR、HWiNFOの共有メモリ(熱)をセンサパイプラインとして統合し、心拍の急変時には“Thalamic Interrupt”で実行中タスクを中断して即時反応させます。
  • Frameworkデスクトップ+eGPU(OCuLink接続のRadeon Pro V620など)という具体的なローカル実装構成も説明されています。

皆さん、こんにちは。

余暇を使ってマルチエージェントシステムを作っていて、リポジトリをオープンソースしました。定番の「テキスト入力/テキスト出力」チャットのやり方に飽きて、本当に状況に根ざしたAI――クラウドAPIを1つも叩かずに、物理環境と自分の生理状態をリアルタイムに実際に認識する――を作りたかったんです。Framework 128GBのデスクトップに、amd v620 32GB oculink を minis forum deg1 経由で使っています。

リポジトリ: [https://github.com/anitherone556-max/Project-Aurelia.git]

TL;DR:

Project Aurelia は、完全にローカルで、生体情報に配慮したマルチエージェントのアーキテクチャです。継続的に心拍、呼吸、近接性、そしてシステムの熱を読み取り、それらの指標を「生物学的」状態に変換して、80B MoE のエグゼクティブモデルの振る舞いループに注入します。

認知スタック & ハードウェア構成

メインの会話モデルがバックグラウンドの処理で飢餓状態にならないようにするため、計算を分割した構成で動かしています:

  • エグゼクティブ・コルテックス(80B MoE - Qwen3-Next-A3B): Framework デスクトップ(Strix Halo)上で、96GB の統合メモリを活用して PCIe のボトルネックをなくします。中核となる推論、ムード状態、UI配信を扱います。
  • 感覚の視床(9B - Qwen3.5): これも統合メモリ上で動作します。信号変換のレイヤーとして機能します。センサーから得た生のハードウェア配列を受け取り、臨床的な「生物学的」観測へと変換します。 (例:「80B に “HR: 120” を渡す」のではなく、「[PULSE]: 脈動。緊張していて、心拍が速く駆けている」という形で渡します)。これによりAIの人格(パーソナ)を維持し、ハードウェアの数値を隠します。
  • 潜在意識のアクション・エンジン(13B): Radeon Pro V620 上で物理的に隔離し、OCuLink 経由で接続しています。バックグラウンドで自律的な Python 実行、Web検索、ファイル解析を回します。専用のシリコンがあるため、80B の処理を遅らせずに重い推論ループを回せます。

センサー・パイプライン(オムニ・ハブ)

  • FMCW mmWave レーダ(60GHz): 生の I/Q 信号データを 20 秒のローリングバッファに取り込み、FFT パイプラインで心拍と呼吸を抽出します。
  • VL53L1X LiDAR: デスクにおける自分の物理的な存在と距離を検証します。
  • HWiNFO 共通メモリ: 実際の CPU/GPU の温度を読み取ります。(私は、ハードウェアで制御された「不安定」なムードロックを作りました――80B は、実際のシリコン温度が危険閾値を超えない限り、危機レベルの行動反応を投げられません)。

心拍が急上昇すると、オムニ・ハブはそのばらつきを検出し、「視床インタラプト(Thalamic Interrupt)」を非同期オーケストレータへ直接発火させます。これにより80Bは現在のタスクを中断し、即座に自分の生理状態に反応します。

メモリ

ハイブリッド RRF(Reciprocal Rank Fusion)のメモリエンジンを使い、セマンティック検索には ChromaDB、完全な BM25 キーワード一致には SQLite FTS5 を組み合わせています。さらに、ムードに整合したリトリーバルの倍率も組み込みました。80B が「分析的」または「防御的」なムードに移行すると、その同じ状態として符号化された長期記憶が優先的に表に出てくるようになります。

これは一人でこの1か月かけて作りました。FFT による生体指標の抽出はうまく動きますが、動きによるアーティファクトの影響を受けやすいので、次は VMD か CNN の再構成を検討しています。

このコミュニティには、アーキテクチャを分解してロジックをテストしたり、フォークしたりしてほしいです。みなさんの意見を聞かせてください!

https://preview.redd.it/w6pouri3bixg1.jpg?width=2160&format=pjpg&auto=webp&s=b8a5a4d60ef51e02888294ef3c60f28c1bfddfbc

https://preview.redd.it/7eugari3bixg1.jpg?width=2160&format=pjpg&auto=webp&s=1390690e5f3014a9a00dfd1514690ad26067474b

https://preview.redd.it/v72jyqi3bixg1.jpg?width=2160&format=pjpg&auto=webp&s=f220f91ec214dbd3747b288b90823f13111a6a98

submitted by /u/Front-Whereas-3050
[link] [comments]