Mixture of Sequence:テーマ対応ミクスチャー・オブ・エキスパートによる長系列レコメンド
arXiv cs.AI / 2026/4/25
💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research
要点
- シーケンシャル・レコメンドはCTR予測の精度を高めている一方で、ユーザーの関心が時間的に大きく変わることで長い系列には無関係または誤解を招く情報が混入しやすいという課題がある。
- 本論文は長いセッションにおける行動の分析から、「session hopping」という再帰的なパターンを見出し、関心は短い時間範囲(セッション)内では安定するが、セッションをまたぐと大きく変化し、複数セッションを経て再出現することもあると示した。
- そこでMixture of Sequence(MoS)を提案し、モデル非依存のMoEアプローチとして、テーマに応じたルーティングでユーザー系列の潜在テーマを学習し、テーマ整合的な部分系列に再編することで、関心シフト由来の誤情報を効果的に除去する。
- さらに情報損失の可能性を抑えるため、グローバルな系列特性、短期のユーザー行動、テーマ特有のセマンティクスを捉える3種類のエキスパートによるマルチスケール融合を導入する。
- 実験結果では、MoSは他のMoE手法よりもFLOPsが少ないにもかかわらず一貫してSOTA性能を達成し、有用性と効率のバランスの良さを裏付けている(コードはGitHubで公開)。



