CARO: Chain-of-Analogy Reasoning Optimization for Robust Content Moderation

arXiv cs.AI / 4/14/2026

📰 NewsIdeas & Deep AnalysisModels & Research

Key Points

  • 既存のLLMは曖昧なコンテンツモデレーションで文脈中の「意思決定ショートカット」に引きずられやすく、誤判定が起きるという課題を指摘しています。
  • CARO(Chain-of-Analogy Reasoning Optimization)は、モデレーションデータを使ったRAGによるアナロジー推論チェーンのブートストラップとSFTにより基礎能力を形成し、その後にカスタムDPOでアナロジカル推論行動を強化する2段階学習枠組みです。
  • 静的な参照に依存する従来の検索型手法と異なり、CAROは推論時に状況に合わせたアナロジー参照を動的生成することで有害なショートカットの影響を抑えるとしています。
  • 実験では、DeepSeek R1やQwQ、LLaMA Guard等の既存の推論・モデレーション特化モデル、各種微調整/RA手法を上回り、曖昧ベンチマークにおける平均F1が24.9%改善したと報告しています。

Abstract

Current large language models (LLMs), even those explicitly trained for reasoning, often struggle with ambiguous content moderation cases due to misleading "decision shortcuts" embedded in context. Inspired by cognitive psychology insights into expert moderation, we introduce \caro (Chain-of-Analogy Reasoning Optimization), a novel two-stage training framework to induce robust analogical reasoning in LLMs. First, \caro bootstraps analogical reasoning chains via retrieval-augmented generation (RAG) on moderation data and performs supervised fine-tuning (SFT). Second, we propose a customized direct preference optimization (DPO) approach to reinforce analogical reasoning behaviors explicitly. Unlike static retrieval methods, \caro dynamically generates tailored analogical references during inference, effectively mitigating harmful decision shortcuts. Extensive experiments demonstrate that \caro substantially outperforms state-of-the-art reasoning models (DeepSeek R1, QwQ), specialized moderation models (LLaMA Guard), and advanced fine-tuning and retrieval-augmented methods, achieving an average F1 score improvement of 24.9\% on challenging ambiguous moderation benchmarks.