LLM-HYPER: Generative CTR Modeling for Cold-Start Ad Personalization via LLM-Based Hypernetworks

arXiv cs.AI / 4/15/2026

📰 NewsSignals & Early TrendsModels & Research

Key Points

  • LLM-HYPERは、冷スタートの広告に対してLLMを「ハイパーネットワーク」として用い、トレーニング不要でCTR推定器のパラメータ(線形CTRモデルの特徴量ごとの重み)を生成する新しい枠組みを提案しています。
  • マルチモーダルな広告(テキスト+画像)をFew-shotのChain-of-Thoughtプロンプトで扱い、CLIP埋め込みによって類似キャンペーンを検索してデモンストレーション化することで、顧客意図や特徴の影響、コンテンツの関連性を推論させます。
  • 生成された重みが実運用のCTR分布に整合し、数値安定性とサービス可能性を確保するために、正規化およびキャリブレーション手法を導入しています。
  • オフライン実験ではNDCG@10で冷スタート基準を55.9%上回り、さらに米国の大手ECでのオンラインA/Bテストでも冷スタート期間の大幅短縮と競争力ある性能を示し、実運用へのデプロイも完了しています。

Abstract

On online advertising platforms, newly introduced promotional ads face the cold-start problem, as they lack sufficient user feedback for model training. In this work, we propose LLM-HYPER, a novel framework that treats large language models (LLMs) as hypernetworks to directly generate the parameters of the click-through rate (CTR) estimator in a training-free manner. LLM-HYPER uses few-shot Chain-of-Thought prompting over multimodal ad content (text and images) to infer feature-wise model weights for a linear CTR predictor. By retrieving semantically similar past campaigns via CLIP embeddings and formatting them into prompt-based demonstrations, the LLM learns to reason about customer intent, feature influence, and content relevance. To ensure numerical stability and serviceability, we introduce normalization and calibration techniques that align the generated weights with production-ready CTR distributions. Extensive offline experiments show that LLM-HYPER significantly outperforms cold-start baselines in NDCG@10 by 55.9\%. Our real-world online A/B test on one of the top e-commerce platforms in the U.S. demonstrates the strong performance of LLM-HYPER, which drastically reduces the cold-start period and achieves competitive performance. LLM-HYPER has been successfully deployed in production.