AI Navigate

qwen3.5-35b-a3bは宝石のようだ

Reddit r/LocalLLaMA / 2026/3/13

💬 オピニオンTools & Practical UsageModels & Research

要点

  • qwen3.5-35b-a3b は、コード要約や docstring の生成・更新を行うのに高速で有能なモデルとして説明されています。著者の主観的評価では、出力が 122b モデルよりわずかに優れているとされています。
  • テスト環境では mlx-community/qwen3.5-35b-a3b(6ビット)を搭載した M4 Max 128GB 上で、このファイルを約12秒で書き換え、80〜90 トークン/秒で動作しました。
  • 著者は llmaid の code-documenter.yaml プロファイルを用いて、リポジトリ内のファイルを LLM に送信し、内容を置換してローカルで更新しました。
  • 投稿は spoiler により詳細を隠しつつ、ワークフローを再現する具体的なコマンドを提供し、自動コード文書化の実用的な使用パターンを示しています。
qwen3.5-35b-a3bは宝石です

私はこのモデルを使ってコード要約(docstrings)の生成または更新を行っています。このモデルは超高速で素晴らしい出力を生成するため、このタスクには最適な場所だと感じます。私が大きく驚いたのは、122b モデルよりもわずかに良いドキュメントを生成したことです。もちろんこれは非常に主観的です。

現在の設定は mlx-community/qwen3.5-35b-a3b(6ビット)を搭載した M4 Max 128GB で、このファイルを推論を含めて書き換えるのに約12秒かかりました。このモデルは 80〜90 トークン/秒 で動作します。

詳しい情報を求める人もいれば、「自己宣伝だ」と非難する人もいます。私は spoiler の中にさらに多くの詳細を隠すことにしました。

私は自分の llmaid (GitHub) を使い、コードリポジトリ内のすべてのファイルを通過させ、内容を書き換える指示を LLM に送信し、その後ローカルで置換しました。llmaid は何をどうするかを指定するプロファイルを使用します。私が使ったものは code-documenter.yaml です。私が使ったコマンドは次のとおりです:

llmaid --profile ./profiles/code-documenter.yaml --targetPath ~./testfiles --provider lmstudio --uri http://localhost:1234/v1 --model qwen3.5:35b-a3b --verbose

提出者: /u/waescher
[リンク] [コメント]