| こんにちは、皆さん、 私は mlx-tune、Apple Silicon 上で MLX を使用してネイティブに LLM をファインチューニングするオープンソースライブラリmlx-tuneに取り組んできました。 このツールを作ったのは、クラウド GPU 上で日常的に Unsloth を使っていますが、GPU 時間を費やす前に自分の Mac でローカルトレーニングの実行をプロトタイプしたかったからです。Unsloth は Triton に依存しており(まだ Mac サポートなし)、Apple の MLX フレームワークを Unsloth 互換 API にラップしました — これにより、同じトレーニングスクリプトを Mac と CUDA の両方で動かせます。import 行を変えるだけです。 現時点でのサポート内容:
いくつかの背景情報: 以前は これは何ではないか:Unsloth の代替ではありません。カスタム Triton カーネルを使った Unsloth は NVIDIA ハードウェアでより高速です。これはローカル開発ループのためのもの — Mac で実験してパイプラインを動かし、実際のトレーニングを CUDA へプッシュして実行します。 正直な制限:
GitHub: https://github.com/ARahim3/mlx-tune ご意見をいただけると嬉しいです、特に M1/M2/M3/M4/M5 でファインチューニングしている方からのフィードバックを歓迎します。 [リンク] [コメント] |
mlx-tune – Mac上でLLMをファインチューニングする(SFT、DPO、GRPO、Vision)Unsloth互換API付き
Reddit r/LocalLLaMA / 2026/3/17
💬 オピニオンTools & Practical UsageModels & Research
要点
- mlx-tuneは、MLXを用いてApple Silicon上でLLMをネイティブにファインチューニングできるオープンソースライブラリであり、Unsloth互換APIを公開しているため、トレーニングスクリプトを単純なインポート切替でMac上またはCUDA上で実行できます。
- ネイティブMLXトレーニング(LoRA/QLoRA)を用いたSFTをサポートし、DPO、ORPO、GRPO、KTO、SimPOを含む高度なファインチューニング手法や、ビジョンモデルのファインチューニング(Qwen3.5 VLM)と約15モデル分のチャットテンプレートを提供します。
- 学習済みモデルをHuggingFace形式またはOllama/llama.cpp用のGGUFにエクスポートでき、1Bの4ビットモデルではRAM8GB以上(推奨は16GB以上)で動作します。
- これはUnslothの置き換えというよりも、ローカル開発・プロトタイピングを目的としており、Mac上での反復を経て実際の学習実行にはCUDAへ移行するという考え方です。
- これはソロプロジェクトであり、正直な制約があります(量子化されたベースモデルからのGGUFエクスポートはサポートされていません、RLトレーナーは1サンプルずつ処理します)、GitHub/ドキュメント/PyPIのリンクと、特にMacユーザーからのフィードバックを歓迎します。




