| みなさん r/LocalLLaMA、 ローカルの「エージェンティック(Agentic)」モデルで苦労しているのは、ほとんどの人が知っていると思います。4B〜14Bスケールの良いモデルでさえ、たいていは単なるツール呼び出しの強化版にすぎません。「このデータセットを分析して、洞察を教えて」 のような開かれたプロンプトを与えると、1ステップ実行して止まり、「続行して」とプロンプトするようあなたが指示するのを待ちます。 私は、大規模な外部プロンプト用フレームワークに頼らず、重みを通じて<10Bの小型モデルが真の自律性を達成できるかを確かめたかったのです。 私が作ったもの: 秘訣(学習データ): 通常の指示チューニングの代わりに、現実のシナリオ(金融、教育、スポーツデータ)をカバーする、大規模なマルチステップのトレースデータセットを構築しました。LoRAは、ツールを呼ぶだけでなく、ジョブが終わるまで計画し、実行し、Pythonコードをデバッグし、可視化し、要約することを連続ループで行うよう学習しました。 結果(ベンチマーク画像2を参照): カスタムフレームワーク(max_turns=50、context=128K)を用いて、29の実在するKaggleデータセットでテストしました。
要するに、9Bモデルを12GB〜24GB VRAMでローカル実行できる「ジュニア・データアナリスト」に変える感じです。 VRAM要件(vLLM):
リンク:
⚠️ コミュニティへの呼びかけ(計算資源/スポンサーを探しています): この1週間の実験で重要なことが証明されました。シナリオベースのワークフローで学習すれば、小型モデルでも完全に自律的なエージェントになり得るということです。 データ分析はただの始まりです。私は、この手法を応用して、コーディング(ソフトウェアエンジニア)、リサーチアシスタントなどのための、ローカルで本当に自律的なエージェントを構築したいと考えています。 ただし、現時点ではハードウェアと資金がボトルネックになっています。こうした連続ワークフロー用のデータセットを学習するには大きな計算資源が必要で、これをスケールして最先端のオープンエージェントを作りたいです。 もしここに計算資源の助成(compute grants)や、スポンサーしてくれるGPUクラスタの利用がある方、あるいはオープンソースのローカルエージェント開発に資金提供することに関心のある組織/支援者がいるなら、ぜひDMで連絡してください。 私たちの代わりに、実際に作業をしてくれるローカルエージェントを作りましょう。コメント欄では、学習プロセス、データ生成、デプロイについての質問には喜んで答えます! [link] [comments] |
[モデル公開] 9Bモデルをエージェント型データアナリストとして学習(Qwen3.5-9B + LoRA)。ベースモデルは100%失敗したが、このLoRAは人の介入なしで89%のワークフローを完了
Reddit r/LocalLLaMA / 2026/4/10
📰 ニュースSignals & Early TrendsTools & Practical UsageModels & Research
要点
- 開発者が、Qwen3.5-9B向けの新しいエージェント型データ分析LoRAを公開。agentscope-ai/CoPaw-Flash-9Bをベースに構築されており、ベースモデルではオープンエンドの分析タスクをまったく完了できないと主張している。
- LoRAは、大規模なマルチステップのトレースデータセット(finance/education/sports)で学習されており、計画、Pythonの実行とデバッグ、可視化、結果の要約までを含むエンドツーエンドのループを実行する。
- 29のKaggleデータセットでのテスト(カスタムハーネス、max_turns=50、128Kコンテキスト)では、ベースモデルは有用な完了が0%だったのに対し、LoRAは人の介入なしで約89.7%の「ナチュラル完了率」に到達したと報告されている。
- 投稿では、vLLMを用いた推論時の概算VRAM要件を含む実運用の指針が提示されている(bf16で単一GPUあたり約22GB、8-bitで約12GB、4-bitで約6GB)。あわせて、LoRAの重みへのリンクと、推論/ツール呼び出しのための付随フレームワークも紹介されている。




