要旨: パーソナライズされた推奨はますますプライベートなユーザデータに依存しており、情報を中央集権化せずに個人に適応できるアプローチを動機づけています。私たちは Federated Targeted Recommendations with Evolving Knowledge graphs and Language Models(FedTREK-LM)を提示します。これは軽量な大規模言語モデル(LLMs)、進化する個人知識グラフ(PKGs)、連邦学習(FL)、およびカーネマン-トヴェルスキー最適化を統合し、スケーラブルで分散型のパーソナライズを実現するフレームワークです。PKGを構造化してLLMsを促すことにより、FedTREK-LMは映画とレシピ提案といったパーソナライズされた推奨タスクにおいて文脈認識型推論を行います。3つの軽量なQwen3モデル(0.6B、1.7B、4B)を通じて、FedTREK-LMは最先端のKG補完および連邦型推奨のベースライン(HAKE、KBGAT、FedKGRec)を一貫して大幅に上回り、映画および食品のベンチマークでF1スコアを4倍超で改善します。実データが効果的なパーソナライゼーションには極めて重要であることをさらに示しており、合成データは最大で46%の性能低下を招きます。全体として、FedTREK-LMは分散化・進化するユーザPKG全体へ一般化する適応的でLLM搭載のパーソナライゼーションの実用的なパラダイムを提供します。)} } } }} } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } } }
軽量な大規模言語モデルを活用した連邦型個人知識グラフの補完とパーソナライズ推奨
arXiv cs.LG / 2026/3/17
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- FedTREK-LM フレームワークを紹介します。軽量な大規模言語モデル、進化する個人知識グラフ、連邦学習、カーネマン=トヴァースキー最適化を統合し、スケーラブルで分散型のパーソナライズを実現します。
- 構造化された PKG を用いて LLM にプロンプトすることで文脈を意識した推論を示し、映画とレシピの提案を含む個別化推奨を実現。評価は 3 つの Qwen3 モデル(0.6B、1.7B、4B)で行われました。
- 映画と食品のベンチマークにおいて、最先端のベースライン(HAKE、KBGAT、FedKGRec)を超える F1 スコアを 4 倍以上改善したことを報告し、顕著な性能向上を示しています。
- 実データが効果的なパーソナライズには不可欠であることを示し、合成データは最大で約46%の性能低下を招くことが分かり、プライバシー保護とデータ依存性の制約を強調します。
- このアプローチは分散化・進化するユーザ PKG を横断して一般化できる可能性があり、適応的で LLM 主導のパーソナライズの実用的なパラダイムを提供します。
関連記事
「Google AI Studio」がFirebaseのバックエンドとAntigravityのコーディングエージェントを搭載、プロンプトだけで高度なフルスタックアプリケーションを生成可能に
Publickey
半導体FABにLLMを持ち込んだら何が起きるか — ArXiv論文5本を現場目線でぶった斬る
Qiita
The massive shift toward edge computing and local processing
Dev.to
Self-Refining Agents in Spec-Driven Development
Dev.to
Week 3: Why I'm Learning 'Boring' ML Before Building with LLMs
Dev.to