AIによるコーディングの状況はあまりに速いスピードで進んでいて、追いつくのがほぼ不可能です。エージェント型のワークフローをうまく調整できたと思った矢先に、Alibaba Cloudが大規模なアップデートを投入しました:Qwen 3.6-Plus。
自律的なコーディングエージェントにClaude OpusやGPT-4を使っているなら、このリリースには注目する必要があります。Qwen 3.6-Plusは「vibe coding」やリポジトリ単位の問題解決のために大幅に最適化されており、ベンチマークではあらゆる分野で業界の強豪と互角、あるいは上回る結果が示されています。
ここでは、この新しいモデルがどこを強みにしているのかを分解し、今日あなた自身のアプリにその強力な新機能を統合する方法を説明します。
1 Million Context Window (By Default)
まずはその規模から見ていきましょう。Qwen 3.6-Plusはデフォルトで1Mのコンテキストウィンドウを搭載して出荷されます。
日常的なチャット用途では、これは過剰です。しかし自律エージェント用途では必須です。この巨大なコンテキストにより、コードベース全体、APIドキュメント、そして大量のログファイルを、切り詰めを心配せずにプロンプトへ投入できます。
改良された空間的な理解力とマルチモーダル推論を組み合わせることで、UIのスクリーンショットを数千行のコードと一緒にモデルへ渡し、フロントエンドを自律的に組み立てるよう依頼できるようになりました。
The Killer Feature: preserve_thinking
私が作っているsecure-pr-reviewerのGitHub Appでは、最大のハードルの1つが「エージェントのアムネジア(思考の忘却)」です。複雑なTypeScriptの型定義とNode.jsのバックエンドロジックを含む巨大なプルリクエストをモデルに渡し、セキュリティ面での影響を推論する必要があります。しかし従来は、エージェントがマルチターン会話(例:ツールを呼び出す→応答を受け取る→もう一度考える)を行うと、それまでの内部にあった「思考」のトレースを破棄してしまいました。
Qwen 3.6-Plusは、この問題をまったく新しいAPIパラメータで解決します:preserve_thinking。
有効にすると、会話のすべての前のターンにおける内部の「思考」コンテンツを、モデルが積極的に保持します。これにより、複雑でステップ数の多いエージェント型ワークフローにおける意思決定の一貫性が大幅に向上し、複雑な自動化タスクを実行する際にAIが思考の流れを失わないようにできます。
How to Use It (TypeScript Example)
AlibabaのModel StudioはOpenAI互換のエンドポイントを提供しているため、これを既存のNode.jsスタックに統合するのは非常に簡単です。
以下は、公式のopenai SDKを使ってQwen 3.6-Plusに接続し、エージェントの永続的な推論を有効化する方法です:
import OpenAI from '"openai'";
// 標準のOpenAIクライアントをAlibabaのDashScopeエンドポイントへ向けます
const client = new OpenAI({
apiKey: process.env.DASHSCOPE_API_KEY,
baseURL: '"[https://dashscope-intl.aliyuncs.com/compatible-mode/v1](https://dashscope-intl.aliyuncs.com/compatible-mode/v1)'",
});
async function runSecurityAudit(prDiff: string) {
console.log(" Booting up Qwen 3.6-Plus Agent...");
const response = await client.chat.completions.create({
model: '"qwen3.6-plus'",
messages: [
{
role: '"system'",
content: '"You are an autonomous security agent auditing code.'"
},
{
role: '"user'",
content: `Please review the following PR diff:
${prDiff}`
}
],
// Qwen固有の機能はextra_bodyで渡します
// @ts-ignore
extra_body: {
enable_thinking: true,
preserve_thinking: true, // エージェント型ワークフローの魔法のトグル
},
stream: true,
});
返却形式: {"translated": "翻訳されたHTML"}for await (const chunk of response) {
// Qwenは実際の回答の前に、カスタムプロパティの下に思考ロジックを返します
const thinkingDelta = (chunk.choices[0].delta as any).reasoning_content;
const contentDelta = chunk.choices[0].delta.content;
if (thinkingDelta) {
process.stdout.write(`\x1b[90m${thinkingDelta}\x1b[0m`); // 思考をグレーで出力
}
if (contentDelta) {
process.stdout.write(contentDelta); // 最終回答を通常どおり出力
}
}
}
ベンチマーク:新しい標準
数字の人なら、Qwen 3.6-Plusのベンチマークデータは驚異的です。
SWE-bench Verifiedでは78.8を記録し、Claude Opus 4.5(76.8)をわずかに上回ります。さらに複雑なターミナル操作でも圧倒しており、Terminal-Bench 2.0で61.6を獲得しています。AnthropicとOpenAIが過去1年「コーディングエージェント」の物語を独占してきましたが、Qwenは「オールラウンダー」モデルとして公式にチャットに登場し、深い論理的推論と正確なツール実行を自然に統合しています。
次は?
APIはAlibaba Cloud Model Studio経由で直ちに利用可能で、チームはOpenClawやClineのような人気のオープンソースのコーディング基盤にシームレスに統合できると述べています。
AIモデルが賢くなり、コンテキストウィンドウが拡大していくにつれて、私たちは急速に「AIオートコンプリート」から離れ、「AIの同僚(Coworkers)」の時代へと完全に移行しつつあります。
あなたはワークフローでQwen 3.6-Plusをテストする予定ですか?下のコメント欄にあなたの考えをぜひお聞かせください!
この分解(解説)が役に立ったなら、❤️を押して、次のエージェント向け週末プロジェクトのためにコードスニペットをブックマークするのを忘れないでください!




