| 前回、このモデルが、提供されたリサーチペーパーに基づいてWebアプリを作る際にどのように機能したかを投稿しました。この投稿が気に入られているのを見てとても嬉しく、もちろん、このMOEモデルの可能性にも期待しています。 私は、このモデルをプロンプトとステップごとのガイドだけでWebアプリを作るためにどう使ったか、その詳細を共有しています。その後、同じ qwen-code cli をこのモデルで使って、私のガイド手順をスキルに変換しました。これにより、追加の例を作ることができました。 ここに、あなたたちが使って、さまざまな論文でこのモデルの可能性を検証できるresearch-webapp-skillを私が追加したGitHubリポジトリがあります。 リポジトリのresearch-webapp-skill/examples at main · statisticalplumber/research-webapp-skillに例を追加しました。 以下は、16GB VRAMのRTX 5080 Laptopでこのモデルを実行するために私が使っているコマンドです。 gemma4 26b moeも試しましたが、qwenが70Kや80Kでもコンテキストを維持し続けているのと同じようにアプリを作ることができませんでした。私はgemma4の最新のjinjaテンプレートと、unslothから取得した最新モデルも試しましたが、それでもこのタスクを実行できませんでした。 また、私はどこかで間違えているのかもしれません。というのも、このモデルはとても気に入っていて、ほかのタスクでは llama-server のネイティブUIで動かしているからです。 ありがとうございます [link] [comments] |
Qwen3.5 35Bは、まだ(実力以上に)確実に最良のローカルモデルの一つ:詳細
Reddit r/LocalLLaMA / 2026/4/16
💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research
要点
- 貢献者が、Qwen3.5 35B MoEモデルを使って、プロンプトによる段階的なガイダンスで研究論文駆動のWebアプリを構築し、その後 qwen-code CLI を使って手順を再利用可能な「スキル」に変換した経験を共有する。
- モデルが異なる論文からアプリケーションを生成/構造化できるかを、他の人が検証できるように、ダウンロード可能な例を含む GitHub リポジトリ(research-webapp-skill)を提示する。
- 投稿には、16GB VRAM(RTX 5080)のラップトップで Qwen3.5 35B GGUF モデルを動かすための、具体的な llama-server コマンド設定が含まれており、チャットテンプレートや生成/コンテキストのパラメータも示される。
- 著者は Gemma4 26B MoE も試したが、このWebアプリのタスクにおいて同程度のコンテキスト保持が得られなかったと報告しており、著者の特定のワークフローでは Qwen3.5 35B の方が明らかにうまく機能したことが示唆される。
- 全体の要点は、ローカルでの運用可能性とタスクの有効性を重視した「使用ベースのローカルLLMベンチマーク」であり、新しいモデル発表そのものではないという点にある。

