広告

コーディングにローカルLLMを使うSWEのためのベストプラクティス

Reddit r/LocalLLaMA / 2026/3/30

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisTools & Practical Usage

要点

  • .NET/SQL/JavaScript の開発者が、主に完全自動のコード編集ではなく、計画や分析のためにローカルLLMをコーディング/アーキテクチャ作業でどう活用するかを検討している。
  • 限られたハードウェア(RTX 5070 12GB)環境で、Qwen3.5(9Bおよび35Bの各バリアント)を試し、エージェンティックなツールやコーディングのワークフローにおける性能制約を考慮している。
  • llama.cpp で特定のフラグ(例:mmapを無効化し、fitオプションを調整する)を使ってモデルを実行し、インタラクティブな開発に十分な速度が出るかを確かめるといった手法をテストしている。
  • 中核となる問いは、コード変更を全面的な自動化に任せるよりも、ローカルLLM支援による「human-in-the-loop(人間を介した)」ワークフローの方が望ましいのかどうかである。
  • 著者の動機は、サブスクリプション費用を避け、ホスト型ツールへの企業アクセスが不確実な場合でもプライバシーと管理(コントロール)を維持したいという点にある。

私は .Net 開発者です(SQL と JS でも大きな経験があり、Python も勉強中です)。複数のプロジェクトで 7 年以上の経験があります。 .Net と Python の領域に入ってきているところですが、MLOps へ切り替えることを考えています。自分の強みを失いたくありませんし、コーディングとアーキテクチャが好きです。

手元の PC は 5070 Rtx 12Gb なので、性能面では少し限界があります。いまは 32K のコンテキストでモデル qwen3.5:9b と qwen3.5:35b-a3b を試しています。念のためですが、Claude Code のようなものに法人としてアクセスできないかもしれないし、もしくは、より良いプライバシーが必要で、私のプロジェクト/AI Bubble が崩壊して、サブスクリプション料金が月まで跳ね上がることになりかねません。

自分のハードウェアは分析、レビュー、そして計画(planing)にはかなり良いことが分かりましたが、エージェント型ツールやコードの作成には苦戦するかもしれません(私はまだ Qwen3.5-35B-A3B を llama.cpp と一緒に、manual --no-mmap と --fit オプションでテストして、それが十分に速いかどうか確認するつもりです)。

検討した結果、私が本当に必要としているのはこれだと判断しました。計画と分析によってコーディングを強化しつつ、すべての編集は自分で行って、変更の内容を理解し、コントロールできるようにすることです。

完全な自動化に頼るより、より良いアプローチなのでしょうか?

submitted by /u/Feeling_Ad9143
[link] [comments]

広告
コーディングにローカルLLMを使うSWEのためのベストプラクティス | AI Navigate