[AutoBe] Qwen 3.5-27B をゼロから完全に構築:バックエンド一式を生成 — 100% コンパイル成功、約25倍安価

Reddit r/LocalLLaMA / 2026/4/9

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • AutoBeによると、Qwen 3.5-27Bは(Todo、Reddit、Shopping、ERPといった)4つの例すべてにおいて、完全なバックエンドプロジェクトを生成でき、コンパイル成功率は100%だった。
  • この記事では、生成された出力が(Claude Opus 4.6やGPT-5.4など)他の有力モデルが作成したものとほぼ同等であったと主張しており、コスト削減は約25倍とされている。
  • ベンチマークからは、出力品質を主に左右するのは「コンパイルの正確さ」であり、モデルの「知能」は主にリトライ回数(例:Opusは1〜2回 vs. Qwen 3.5-27Bは3〜4回)に影響する、という示唆がある。
  • 各バックエンド例には、データベーススキーマ、OpenAPI仕様、NestJSでの実装、エンドツーエンドテスト、型安全なSDKが含まれると説明されている。
  • Qwen 3.5-35B-A3Bに関する続編の取り組みにも言及されており、コンパイル成功率は100%に近いとされ、最先端モデルより大幅に安価である(例:通常のラップトップ上で)という位置づけになっている。
[AutoBe] Qwen 3.5-27B Just Built Complete Backends from Scratch — 100% Compilation, 25x Cheaper

Qwen 3.5-27Bを、Claude Opus 4.6やGPT-5.4を含む、バックエンド生成における他の10モデルとベンチマークしました。出力はほぼ同一でした。25倍安い。

TL;DR

  1. Qwen 3.5-27Bは、4つのバックエンドプロジェクトすべてで100%コンパイルを達成
    • Todo, Reddit, Shopping, ERP
    • それぞれにDBスキーマ、OpenAPI仕様、NestJS実装、E2Eテスト、型安全なSDKが含まれます
  2. ベンチマークスコアは、11モデルすべてでほぼ一様
    • コンパイラが出力品質を決める。モデルの知能ではない
    • モデルの能力はリトライ回数にのみ影響(Opus: 1〜2、Qwen 3.5-27B: 3〜4)
    • 「検証できれば収束する」
  3. 近日公開予定:Qwen 3.5-35B-A3B(3Bのアクティブパラメータ)
    • まだ100%ではないが、かなり近い
    • 通常のノートPCでフロンティアモデルより77倍安い

全文:https://autobe.dev/articles/autobe-qwen3.5-27b-success.html

関連記事

投稿者 /u/jhnam88
[リンク] [コメント]