コーディングのために、コミュニティが「最良のローカルLLM」と考えているものについての見解を知りたいです。さらに、環境構築や適切なモデルの選定のために、あなたがよく使う(頼りにしている)リソースは何ですか?
編集:私の環境は Mac M3 Max Pro 128GB RAM + 40コアです
[リンク] [コメント]
Reddit r/LocalLLaMA / 2026/3/28
コーディングのために、コミュニティが「最良のローカルLLM」と考えているものについての見解を知りたいです。さらに、環境構築や適切なモデルの選定のために、あなたがよく使う(頼りにしている)リソースは何ですか?
編集:私の環境は Mac M3 Max Pro 128GB RAM + 40コアです