| Qwen 3.5-27Bを、Claude Opus 4.6やGPT-5.4を含む、バックエンド生成における他の10モデルとベンチマークしました。出力はほぼ同一でした。25倍安い。 TL;DR
全文:https://autobe.dev/articles/autobe-qwen3.5-27b-success.html 関連記事[リンク] [コメント] |
[AutoBe] Qwen 3.5-27B をゼロから完全に構築:バックエンド一式を生成 — 100% コンパイル成功、約25倍安価
Reddit r/LocalLLaMA / 2026/4/9
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageModels & Research
要点
- AutoBeによると、Qwen 3.5-27Bは(Todo、Reddit、Shopping、ERPといった)4つの例すべてにおいて、完全なバックエンドプロジェクトを生成でき、コンパイル成功率は100%だった。
- この記事では、生成された出力が(Claude Opus 4.6やGPT-5.4など)他の有力モデルが作成したものとほぼ同等であったと主張しており、コスト削減は約25倍とされている。
- ベンチマークからは、出力品質を主に左右するのは「コンパイルの正確さ」であり、モデルの「知能」は主にリトライ回数(例:Opusは1〜2回 vs. Qwen 3.5-27Bは3〜4回)に影響する、という示唆がある。
- 各バックエンド例には、データベーススキーマ、OpenAPI仕様、NestJSでの実装、エンドツーエンドテスト、型安全なSDKが含まれると説明されている。
- Qwen 3.5-35B-A3Bに関する続編の取り組みにも言及されており、コンパイル成功率は100%に近いとされ、最先端モデルより大幅に安価である(例:通常のラップトップ上で)という位置づけになっている。




