LinkedInの採用エージェントのための階層型ロングターム意味記憶

arXiv cs.LG / 2026/4/30

📰 ニュースDeveloper Stack & InfrastructureIndustry & Market MovesModels & Research

要点

  • 本論文は、パーソナライズされた文脈に応じたやり取りを可能にするために、LLMエージェントが長期の意味記憶を産業レベルで構築する枠組み「Hierarchical Long-Term Semantic Memory(HLTM)」を提案しています。
  • HLTMは、スケーラビリティ、低遅延の検索、プライバシー制約、ドメイン横断の汎化、観測性といった導入上の主要課題に対し、多段階の粒度で意味知識を捉える「スキーマ整合型メモリーツリー」にテキストを整理することで対応しています。
  • 多様なユースケースにまたがってメモリシステムを汎化するための適応メカニズムも組み込まれており、単一ドメインに閉じない頑健性を高めます。
  • LinkedInの「Hiring Assistant」での評価では、HLTMが回答の正確性と検索F1を10%以上改善し、さらにクエリ遅延とインデックス遅延のトレードオフ(パレートフロンティア)も大きく改善したと報告されています。
  • HLTMは、LinkedInの「Hiring Agent」において実運用で導入済みであり、採用ワークフローにおける中核的なパーソナライゼーション機能を支えるとされています。

要旨: 大規模言語モデル(LLM)エージェントは、パーソナライズされ文脈を理解したユーザーとの対話が不可欠な実世界の製品で、ますます利用されるようになっています。このような機能を実現する上での中核となるのが、エージェントの長期セマンティックメモリ(意味記憶)システムです。このシステムは、ノイズの多い時系列の行動データから暗黙的および明示的な信号を抽出し、構造化された形で保存し、低レイテンシでの検索を可能にします。LLMエージェント向けの産業レベルの長期メモリを構築するには、スケーラビリティ、低レイテンシ検索、プライバシー制約、ドメインをまたぐ汎用性、観測可能性という5つの課題があります。そこで本研究では、階層型長期セマンティックメモリ(HLTM)フレームワークを提案します。HLTMは、テキストデータをスキーマに整合したメモリツリーとして編成し、複数の粒度でセマンティックな知識を捉えることで、スケーラブルな取り込み、プライバシーを意識した保存、低レイテンシ検索、そして透明な来歴(プロヴナンス)を実現します。さらにHLTMは、多様なユースケースにまたがって一般化するための適応メカニズムも組み込みます。LinkedInの「Hiring Assistant(採用アシスタント)」に対して行った大規模な評価では、HLTMが回答の正確性と検索F1を10%以上有意に改善する一方で、クエリ遅延とインデックス遅延の間のパレートフロンティアを大幅に前進させることが示されました。HLTMは実運用の採用ワークフローにおける中核となるパーソナライゼーション機能を支えるために、LinkedInの「Hiring Assistant」に導入されています。