やあ、
要点: ローカルモデルを使い、qwen 3.5 の量子化版のような専用モデルと組み合わせて、放置して実行できる作業を行います。ローカルモデルが地味な作業を担当します。購入候補: RTX Pro 6000? Mac Studio Ultra(M5 を待つ)、または DGX Spark?推論速度は迅速な作業には不可欠です。 NVIDIA の nvfp4 が未来なのだろうか?予算: 10,000〜15,000 USD。
現在のリグを構築またはアップグレードして、量子化されたモデル(qwen 120b のような)を実行できるようにしたいです(意味のある q レベルを選んでください)。主にコーディング、ツールの使用、画像理解能力のために。
ローカルモデルを推論に使用して、コードの作成や、スクリプトの実行、テスト、スクリーンショットの取得、ブラウザの使用などのツールを活用するつもりです。ただし、sonnet や opus のようなより大きな推論のために、専有モデルと一緒に使用するつもりです。それらが設計を担うことになる。
目標は、大型のモデルに地味な作業を任せ、専用モデルには明確化と支援を求める(専用モデルの使用を大幅に制限しつつ)、バックログのすべてのタスクが完了するまでこのサイクルを継続することです。ファイア・アンド・フォゲット風のスタイル。
PC から離れて戻ってきたときに、オープンな GitHub の課題が解決されている現実にはそう遠くないと感じます。そして近い将来、その現実に必ず到達するでしょう。
だから、API 経由で専用モデルだけを動かして費用をかさむのを避けたいです。時間をかけてローカルへの投資が回収されるはずです。
ありがとうございます!
[リンク] [コメント]