AI Navigate

Qwen 0.5Bをタスク自動化用にファインチューニングし、結果を共有したいと思います。

Reddit r/LocalLLaMA / 2026/3/19

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • 約1000件のタスク例に対してLoRAを用いてQwen 0.5Bをファインチューニングし、CLIコマンドとホットキーを組み合わせた実行計画を生成して自然言語タスクを自動化する。
  • CPUのみで完全にローカルに動作(GPUやクラウドAPIは不要)し、GGUF Q4_K_M量子化(約300MB)とllama.cppによる推論を使用する。
  • 技術的なセットアップはベースモデルとしてQwen2-0.5Bを含み、典型的なi3/i5 CPUで3-10秒の推論、性能レンジはi5+SSDで3-5秒、i3+SSDで5-10秒、非常に旧式なハードウェアでは30-90秒。
  • 主なトレーニングの課題はデータ品質(データセットを2~3回再生成)、過学習、EOSトークンの取り扱い、安定性のためにBF16データ型とimatrix量子化を必要とするGGUF変換だった。
  • 制限事項(v0.1)には、完全なファイルパスが必要でスマートファイル検索はまだ実装されていないこと、CPUのみの推論、視覚的理解のない基本的な実行などが含まれます。フィードバックは異なるハードウェアでの性能、エッジケース、v0.2の機能要望を含み、GitHubリポジトリへのリンクが提供されています。

機能概要:

- 自然言語タスクを受け付けます(例:「ログをバックアップにコピー」)

- タスクの種類を検出します(原子タスク、反復タスク、明確化)

- 実行計画を生成します(CLIコマンド+ホットキー)

- CPU上で完全にローカルに実行します(GPUなし、クラウドAPIなし)

技術的詳細:

- ベース: Qwen2-0.5B

- 学習: ~1000個のカスタムタスク例を用いたLoRA微調整

- 量子化: GGUF Q4_K_M (300MB)

- 推論: llama.cpp(i3/i5で3-10秒)

トレーニング中の主な課題:

  1. データ品質 - 不適切なサンプルが含まれていたためデータセットを2〜3回再作成しました

  2. 過学習 - 検証損失を安定させるには複数の反復が必要でした

  3. EOSトークンの処理 - トークナイザの設定を修正するまで、モデルは生成を停止しませんでした

  4. GGUF変換 - 安定した出力を得るためにBF16データ型とimatrix量子化が必要でした

制限事項(v0.1):

- 完全なファイルパスが必要(スマートファイル検索はまだありません)

- CPU推論のみ(旧ハードウェアでは遅い)

- 基本的な実行(視覚的理解はなし)

パフォーマンス:

- i5 (2018年以降) + SSD: 3-5秒

- i3 (2015年以降) + SSD: 5-10秒

- 旧型ハードウェア: 30-90秒(Pentium + HDDでテスト)

フィードバック歓迎です。特に関心があるのは:

- 異なるハードウェアでのパフォーマンス

- モデルを破るエッジケース

- バージョン0.2の機能要望

リンク:

- GitHub: https://github.com/ansh0x/ace

トレーニングプロセスやアーキテクチャに関する質問には喜んでお答えします!

投稿者 /u/Several-Dream9346
[リンク] [コメント]