広告

MemFactory: エージェントのメモリのための統合推論・学習フレームワーク

arXiv cs.CL / 2026/4/1

📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research

要点

  • MemFactory は、メモリ拡張型 LLM エージェント向けに設計された、統合的でモジュール化された学習・推論フレームワークとして導入されます。これにより、メモリパイプラインのタスク固有の実装が分断されてしまう問題を軽減することを目指します。
  • このフレームワークは、メモリのライフサイクルを「レゴのような」プラグ&プレイ部品として抽象化し、研究者が独自のメモリアーキテクチャを持つエージェントをより容易に構築できるようにします。
  • さらに、内部メモリ管理ポリシーを、複数次元の環境報酬を用いて微調整するための Group Relative Policy Optimization(GRPO)をネイティブに統合しています。
  • MemFactory は、オープンソースの MemAgent アーキテクチャで検証されており、インドメイン評価およびアウト・オブ・ディストリビューション評価の両方で、ベースモデルに対して一貫した性能向上を示します。改善幅は最大で 14.8% です。
  • 著者らは MemFactory を、長期的でメモリ駆動の AI エージェントに関する今後の研究・イノベーションの参入障壁を下げる標準化されたインフラとして位置付けています。

Abstract

メモリ拡張型大規模言語モデル(LLM)は、能力のある長期的なAIエージェントを開発するために不可欠である。近年、抽出、更新、検索といったメモリ操作を最適化するために強化学習(RL)を適用することが、非常に有望な研究方向として注目されている。しかし、既存の実装は依然として高度に断片化され、特定のタスクに特化しており、これらの複雑なパイプラインの統合、学習、評価を効率化するための統一的なインフラストラクチャを欠いている。このギャップに対処するために、メモリ拡張型エージェント向けに特化して設計された、最初の統一的で高度にモジュール化された学習・推論フレームワークであるMemFactoryを提示する。LLaMA-Factoryのような統一ファインチューニングフレームワークの成功に触発され、MemFactoryはメモリのライフサイクルを原子的でプラグアンドプレイ可能なコンポーネントとして抽象化し、「レゴのような」アーキテクチャによって研究者がカスタムのメモリエージェントをシームレスに構築できるようにしている。さらに、このフレームワークは多次元の環境報酬によって駆動される内部メモリ管理ポリシーをファインチューニングするために、Group Relative Policy Optimization(GRPO)をネイティブに統合する。MemFactoryは、Memory-R1、RMM、MemAgentを含む、最近の最先端パラダイムに対する既製のサポートを提供する。公開されている学習データと評価データを用いて、オープンソースのMemAgentアーキテクチャ上でMemFactoryを実証的に検証する。ドメイン内および分布外の評価セットのいずれにおいても、MemFactoryは対応するベースモデルと比べて一貫して性能を向上させており、相対的な改善は最大14.8%である。標準化され、拡張可能で、使いやすいインフラストラクチャを提供することで、MemFactoryは参入障壁を大きく下げ、メモリ駆動型AIエージェントにおける今後の革新への道を切り拓く。

広告