永続メモリを備えたAIが辿れるwikiを、生のドキュメントからコンパイルするツールをオープンソース化しました。100%ローカルで動作します

Reddit r/LocalLLaMA / 2026/4/6

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • 著者は「aura-research」をオープンソース化しました。これは、PDF、論文、ノート、コードなどの生のドキュメントフォルダ(60種類以上の形式)を取り込み、それらをAIが辿れるMarkdownのwikiにコンパイルし、相互リンクとインデックスを付けます。
  • このツールは知識を圧縮した「.aura」アーカイブとしてパッケージ化し、検索向けに最適化することで、元のソースデータに比べて約97%小さい出力になると主張しています。これにより、RAGスタイルのクエリをより効率的に行えるとしています。
  • 埋め込み(embeddings)やベクトルデータベースは使わず、インデックス作成にSimHashとBloom Filtersを利用します。そして、LLMがクエリ時に少数の関連記事だけを読み込めるよう、構造化されたwikiナビゲーションに依存します。
  • 組み込みの「3-tier Memory OS」(facts、episodic、scratch pad)を備え、セッションをまたいで重要な文脈を保持することを意図しています。さらに、任意のLLMプロバイダで動作させる選択肢も用意されています。
  • すべてのワークフローはローカルで完結する設計であり、データがマシン外に出ることはありません。著者はコミュニティからのフィードバックを募っており、特に「構造化wiki vs ベクトル埋め込み」のトレードオフや、プロダクト化の可能性について意見を求めています。

Karpathyさんの、研究ドキュメントから個人用ウィキを作るのにLLMを使うという投稿を見て、私はすでに社内で似たようなものをR&D向けに使っていたことに気づきました。

それをきれいに整えて、オープンソース化しました。

何をするか: 生のドキュメントのフォルダ(PDF、論文、メモ、コード、60+形式)を投げると、LLMがそれらを、相互リンクされた記事、コンセプトページ、マスターインデックスを備えた構造化されたmarkdownウィキにコンパイルします。さらに、すべてをRAG検索用に最適化された.auraアーカイブに圧縮します(元のソースデータに比べて約97%小さくなります)。

仕組み:

pip install aura-research research init my-project # コピーしたドキュメントを raw/ に入れる research ingest raw/ research compile research query "あなたの質問" 

重要な設計判断:

  • 埋め込み(embeddings)も、ベクタデータベースも使いません。代わりにSimHash + Bloom Filtersを使います。RAMのオーバーヘッドはゼロです。
  • 組み込みの3層メモリOS(事実 / エピソード / スクラッチパッド)により、セッションをまたいでもLLMが重要なコンテキストを忘れないようにしています。
  • ウィキはただの.mdファイルです。Obsidian、VS Code、あるいは好きなものなら何でも使って閲覧できます。
  • どんなLLMプロバイダでも動作します(OpenAI、Anthropic、Gemini)。またはClaude Code/Gemini CLIのようなエージェントネイティブのツールとして動かせます(APIキーが不要です)。
  • すべてローカルで動作します。データはあなたのマシンから外に出ません。

「埋め込みなし」の選択: 私は意図的に標準的なRAGパイプライン(チャンク → 埋め込み → ベクタ検索)を避けました。その代わりに、LLMは知識をインデックス付きでよく構造化されたウィキとしてコンパイルします。問い合わせ時には、インデックスを読み、関連する記事を2〜3個だけ見つけ、それらだけを読み込みます。ファイル構造が適切に整理されていれば、知識を適切にナビゲートできるほどLLMは賢いので、別の埋め込みモデルは不要です。

GitHub: https://github.com/Rtalabs-ai/aura-research PyPI: pip install aura-research

このコミュニティからのフィードバックが欲しいです。特に「構造化ウィキ vs ベクタ埋め込み」というトレードオフについて。皆さんの考えを楽しみにしています!

また、これをプロダクトとしてパッケージ化することも考えています。何か洞察があれば嬉しいです!

submitted by /u/manoman42
[link] [comments]