広告

KAT-Coder-V2 テクニカルレポート

arXiv cs.CL / 2026/3/31

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • KuaishouのKwaiKATチームが、エージェント型コーディングモデル「KAT-Coder-V2」を発表し、Specialize-then-Unify(専門化→統合)で5つの領域(SWE/WebCoding/Terminal/WebSearch/General)を個別に学習して統合しています。
  • それぞれの領域で教師ありファインチューニングと強化学習を行い、最終的にon-policy distillationで単一モデルへ統合する設計が採用されています。
  • 大規模並列のサンドボックス実行を支える「KwaiEnv」を開発し、強化学習のスケールをタスク複雑性・意図アラインメント・スキャフォールド一般化に沿って行っています。
  • MoE強化学習の安定化(MCLA)や木構造軌道の冗長計算削減(Tree Training)により最大6.2倍の速度向上を示し、複数のベンチマークで高い性能を報告しています。
  • SWE-bench Verifiedで79.6%を達成し、モデルは公開(https://streamlake.com/product/kat-coder)されています。

Abstract

本稿では、KuaishouのKwaiKATチームが開発したエージェント型コーディングモデル「KAT-Coder-V2」を紹介します。KAT-Coder-V2は「Specialize-then-Unify(専門化してから統合する)」というパラダイムを採用しており、エージェント型コーディングを5つの専門領域――SWE、WebCoding、Terminal、WebSearch、General――に分解し、それぞれを独立した教師あり微調整と強化学習によって学習した後、オンポリス蒸留によって1つのモデルへ統合します。さらに、数万規模の同時サンドボックスインスタンスを支えるモジュール型基盤「KwaiEnv」を開発し、タスクの複雑さ、意図の整合、足場(スキャフォールド)の汎化に沿って強化学習(RL)をスケールさせます。加えて、MoEのRL学習を安定化するための「MCLA」と、木構造化された軌跡に対する冗長な計算を除去する「Tree Training」を提案し、最大6.2倍の高速化を実現します。KAT-Coder-V2は、SWE-bench Verifiedで79.6%(Claude Opus 80.8%に対して4.6ポイント差)を達成し、PinchBenchで88.7%(GLM-5およびMiniMax M2.7を上回る)を示し、フロントエンドの美観に関する3つのシナリオすべてで1位にランクインします。また、Terminal-Bench Hard(46.8)およびtau^2-Bench(93.9)においても、強力な汎化能力を維持しています。本モデルは https://streamlake.com/product/kat-coder で公開されています。

広告