[N] ミラ・ジョヴォヴィッチが開発者で、AIに投資していて、プロジェクトをオープンソースしたことを今知った

Reddit r/MachineLearning / 2026/4/8

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • ミラ・ジョヴォヴィッチは、過去の会話をより高いベンチマーク性能で保持・検索することを目的としたAIメモリシステム「MemPalace」をオープンソースしました。これは有料の競合よりも大幅に高い性能を目指しています。
  • AIに「何を覚えるか」を選ばせるのではなく、MemPalaceはやり取りを幅広く保存し、「記憶の宮殿(memory palace)」というデータ・アーキテクチャ(翼、回廊、部屋)と相互参照によって見つけられるようにします。
  • 報告によれば、宮殿構造だけで、22,000件超の会話メモリのデータセットにおいて検索精度を34%改善し、情報損失なしでテキストを約30倍圧縮する圧縮技術(AAAK)も含まれています。
  • MemPalaceは、API呼び出しなしでローカル実行(SQLiteおよびChromaDB)することで、LongMemEvalベンチマークにおいて96.6%のrecallを達成し、サブスクリプションやキー不要で無料に利用できます。
  • MITライセンスのこのシステムは、テキストを読み取れる主要なLLM(Claude、GPT、Gemini、Llama、Mistralなど)と連携するよう設計されており、実装は共同創作者のBen Sigmanによって主導されています。

自分自身も開発者でREファンなので、ちょっと驚いています。AIに情熱を持ち、バイオハザード関連の人物である女性


フォローされたテキスト本文の出典

ミラ・ジョヴォヴィッチ――はい、『バイオハザード』と『第5元素』のあの女優――が、標準的な検索(リトリーバル)ベンチマークで市場にある有料のあらゆる競合よりも高いスコアを出したオープンソースのAIメモリシステムを、ついに公開しました。名前はMemPalace。無料で、数日で1,100件のGitHubスターを獲得しています。

このシステムが解決する問題は、ヘビーにAIを使う人なら誰もが知っているものです。Claude、ChatGPT、Copilotとのあらゆる会話は、セッションが終わると消えてしまいます。毎日6か月使うと、約1,950万トークン――意思決定、デバッグセッション、アーキテクチャの議論――がすべて消えます。既存のメモリツールは、AIに「何を残す価値があるか」を判断させることで対処しようとします。MemPalaceは逆のアプローチを取ります。まず全部を保存し、その後構造によって見つけられるようにします。

その構造は、古代ギリシャの「ロキ(loci)の方法」――記憶の宮殿(メモリ・パレス)技法――から借りてきており、それを実際のデータアーキテクチャとして適用しています。会話は、翼(人物、プロジェクト)、大広間(メモリの種類)、部屋(特定のトピック)に整理され、異なる領域にまたがって同じトピックを結びつけるクロスリファレンスが張られます。実際の会話メモリ22,000件以上に対して、宮殿の構造そのものだけで検索精度が34%向上しました。さらに、このシステムには、自然言語を情報ロスなしで約30倍圧縮する圧縮方言「AAAK」も含まれており、AIが数か月分のコンテキストを約120トークンで読み込めるようになります。

主要な数字:API呼び出しは一切なしでLongMemEvalベンチマークにおける再現率(recall)96.6%、そして軽量な再ランキング手順を加えると100%です。比較として、Mem0は約85%で、費用は月19〜249ドルです。Zepも同様に月25ドル以上です。MemPalaceは無料で、SQLiteとChromaDB上で完全にローカルに動作します。クラウドなし、サブスクリプションなし、APIキーなしです。

ジョヴォヴィッチは、開発はほぼ1,000のドキュメントにわたる、青写真の失敗が数か月続いたのちにアーキテクチャが「ハマった」のだと説明しました。その後、共同創作者のBen Sigmanが実装をエンジニアリングしました。これはClaude、GPT、Gemini、Llama、Mistral――テキストを読むどんなモデルとも動作します。MITライセンスで、完全にオープンソース。

Repo)

投稿者 /u/_giga_sss_
[リンク] [コメント]