AI Navigate

HiveCommand — ローカルファーストのAIコーディングエージェント用ターミナルダッシュボード(ローカルWhisper音声制御とマルチエージェントオーケストレーションを搭載)

Reddit r/LocalLLaMA / 2026/3/18

📰 ニュースDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • HiveCommand は、コア機能をクラウドに依存せず、単一のインターフェースから複数の AI コーディングセッションを管理できるオープンソースのローカルファーストなターミナルダッシュボードです。
  • 並列で動作するコーディングエージェントを実行するためのマルチエージェント・ハイブマインド・オーケストレーションをサポートし、ターミナル出力のライブストリーミンググリッドを提供します。
  • 音声ディクテーションはデフォルトでローカル Whisper を使用(クラウド STT は任意)し、音声を第三者へ送信することなく音声制御を実現します。セッションは再起動後も継続します。
  • 組み込みウェブブラウザ、Git によるソース管理、システムトレイを備えたデスクトップアプリ、プロジェクトごとのセッション追跡、そして1行インストールを提供します。
  • 本プロジェクトは Apache 2.0 ライセンスに Commons Clause を付与した形で公開されており、ローカル Whisper 統合へのフィードバックを歓迎します。
HiveCommand — ローカルファーストのターミナルダッシュボード、AIコーディングエージェント用、ローカル Whisper 音声制御とマルチエージェントオーケストレーション

ローカルで1か所から複数のAIコーディングセッションを管理するオープンソースのターミナルダッシュボードを構築しました。すべてローカルで実行され、コア機能のクラウド依存はありません。

https://preview.redd.it/6s5rx6z4cspg1.png?width=2050&format=png&auto=webp&s=adeaf47274a92522143fece4fde25b5ddcc8958c

音声入力はローカルの Whisper によって実行されます(必要に応じてクラウドの STT も使用可能)。第三者に音声を送信することなく、コーディングエージェントに話しかけることができます。セッションは再起動をまたいで持続し、任意のターミナルをシステムターミナルにポップアウトして、いつでも再接続できます。

機能:
- ライブ配信のターミナル出力を備えたアクティブセッションのグリッド
- マルチエージェントのハイブマインド・オーケストレーション(並列コーディングエージェントの実行)
- 音声入力用のローカル Whisper STT — クラウド不要
- 組み込みのウェブブラウザと Git ソース管理
- システムトレイ付きデスクトップアプリ(Linux + macOS)
- プロジェクトごとのセッション追跡を含むプロジェクト管理
- ワンライナーインストール

インストール:
curl -fsSL https://raw.githubusercontent.com/ai-genius-automations/hivecommand/main/scripts/install.sh | bash

GitHub: https://github.com/ai-genius-automations/hivecommand

Apache 2.0 + Commons Clause。ローカル Whisper の統合についてのフィードバックを特に歓迎します。

投稿者 /u/andycodeman
[リンク] [コメント]