KAT-Coder-V2 Technical Report

arXiv cs.CL / 3/31/2026

📰 NewsDeveloper Stack & InfrastructureSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • KuaishouのKwaiKATチームが、エージェント型コーディングモデル「KAT-Coder-V2」を発表し、Specialize-then-Unify(専門化→統合)で5つの領域(SWE/WebCoding/Terminal/WebSearch/General)を個別に学習して統合しています。
  • それぞれの領域で教師ありファインチューニングと強化学習を行い、最終的にon-policy distillationで単一モデルへ統合する設計が採用されています。
  • 大規模並列のサンドボックス実行を支える「KwaiEnv」を開発し、強化学習のスケールをタスク複雑性・意図アラインメント・スキャフォールド一般化に沿って行っています。
  • MoE強化学習の安定化(MCLA)や木構造軌道の冗長計算削減(Tree Training)により最大6.2倍の速度向上を示し、複数のベンチマークで高い性能を報告しています。
  • SWE-bench Verifiedで79.6%を達成し、モデルは公開(https://streamlake.com/product/kat-coder)されています。

Abstract

We present KAT-Coder-V2, an agentic coding model developed by the KwaiKAT team at Kuaishou. KAT-Coder-V2 adopts a "Specialize-then-Unify" paradigm that decomposes agentic coding into five expert domains - SWE, WebCoding, Terminal, WebSearch, and General - each undergoing independent supervised fine-tuning and reinforcement learning, before being consolidated into a single model via on-policy distillation. We develop KwaiEnv, a modular infrastructure sustaining tens of thousands of concurrent sandbox instances, and scale RL training along task complexity, intent alignment, and scaffold generalization. We further propose MCLA for stabilizing MoE RL training and Tree Training for eliminating redundant computation over tree-structured trajectories with up to 6.2x speedup. KAT-Coder-V2 achieves 79.6% on SWE-bench Verified (vs. Claude Opus 4.6 at 80.8%), 88.7 on PinchBench (surpassing GLM-5 and MiniMax M2.7), ranks first across all three frontend aesthetics scenarios, and maintains strong generalist scores on Terminal-Bench Hard (46.8) and tau^2-Bench (93.9). Our model is publicly available at https://streamlake.com/product/kat-coder.