| https://reddit.com/link/1svixo0/video/hgwrueuekdxg1/player トリックなし、コピペなし。まったく別の2つのAIモデル、別々の会話——一方が他方に伝えた内容を覚えています。 仕組みはこうです。すべてのメッセージを埋め込み(embedding)して保存します。どのモデルでも新しいチャットを開くと、メモリが自動的にコンテキストに注入されます。GPT、Claude、Gemini、Grok、DeepSeek——それらはすべて同じメモリ層(memory layer)を共有しています。 つまり、GPT-5 Nanoに「私はバーレーンに住んでいます」と伝え、その後あらためてClaude Sonnet 4.6の会話を開いて「私はどこに住んでいる?」と聞いたら——「あなたのメモリに基づくと、あなたはバーレーンに住んでいます」と言いました。 いま asksary.com で公開中 [リンク] [コメント] |
モデルをまたいだ永続メモリを構築—GPT-5 Nanoにバーレーン在住を伝えたら、Sonnet 4.6が即答
Reddit r/artificial / 2026/4/26
📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsIdeas & Deep AnalysisTools & Practical Usage
要点
- この投稿では、異なるAIモデルの会話をまたいで情報を記憶できる「クロスモデルの永続メモリ」システムを構築したと主張しています。
- 報告によると、各メッセージを埋め込み(embedding)して保存し、新しいチャットを任意のモデルで開始する際に保存したメモリを自動的にコンテキストへ注入します。
- 著者は、GPT-5 NanoとClaude Sonnet 4.6が同じメモリ層を共有できることを、GPT-5 Nanoに「自分はバーレーンに住んでいる」と伝えた後に、Sonnet 4.6が即座に「バーレーンに住んでいる」と答えた例で示しています。
- この仕組みは特定のチャットアプリに限定されず、GPT、Claude、Gemini、Grok、DeepSeekなど複数のモデルで機能する形で紹介されています。



