機能概要:
- 自然言語タスクを受け付けます(例:「ログをバックアップにコピー」)
- タスクの種類を検出します(原子タスク、反復タスク、明確化)
- 実行計画を生成します(CLIコマンド+ホットキー)
- CPU上で完全にローカルに実行します(GPUなし、クラウドAPIなし)
技術的詳細:
- ベース: Qwen2-0.5B
- 学習: ~1000個のカスタムタスク例を用いたLoRA微調整
- 量子化: GGUF Q4_K_M (300MB)
- 推論: llama.cpp(i3/i5で3-10秒)
トレーニング中の主な課題:
データ品質 - 不適切なサンプルが含まれていたためデータセットを2〜3回再作成しました
過学習 - 検証損失を安定させるには複数の反復が必要でした
EOSトークンの処理 - トークナイザの設定を修正するまで、モデルは生成を停止しませんでした
GGUF変換 - 安定した出力を得るためにBF16データ型とimatrix量子化が必要でした
制限事項(v0.1):
- 完全なファイルパスが必要(スマートファイル検索はまだありません)
- CPU推論のみ(旧ハードウェアでは遅い)
- 基本的な実行(視覚的理解はなし)
パフォーマンス:
- i5 (2018年以降) + SSD: 3-5秒
- i3 (2015年以降) + SSD: 5-10秒
- 旧型ハードウェア: 30-90秒(Pentium + HDDでテスト)
フィードバック歓迎です。特に関心があるのは:
- 異なるハードウェアでのパフォーマンス
- モデルを破るエッジケース
- バージョン0.2の機能要望
リンク:
- GitHub: https://github.com/ansh0x/ace
トレーニングプロセスやアーキテクチャに関する質問には喜んでお答えします!
[リンク] [コメント]




