| mlx-tune は、Appleの MLX フレームワークを使用して、Apple Silicon 上でネイティブに LLM をファインチューニングするための Python ライブラリです。 SFT、DPO、ORPO、GRPO、KTO、SimPO のトレーナーと、適切な損失実装を備え、視覚-言語モデルのファインチューニングも可能です(Qwen3.5 でテスト済み)。API は Unsloth/TRL と同等で、Mac と CUDA の両方で同じトレーニングスクリプトを実行できます — インポート行を変更するだけです。 mlx-lm と mlx-vlm の上に構築されています。LoRA/QLoRA、15 モデルファミリ用のチャットテンプレート、GGUF エクスポート。8GB 以上の統合 RAM で動作します。 NVIDIA 上の Unsloth の代替品ではありません — Mac 上でローカルにプロトタイピングを行い、クラウド GPU へ拡張する前の段階用です。 [リンク] [コメント] |
[P] mlx-tune – Apple Silicon 上で MLX を用いた LLM のファインチューニング (SFT, DPO, GRPO, VLM)
Reddit r/MachineLearning / 2026/3/17
📰 ニュースDeveloper Stack & InfrastructureTools & Practical Usage
要点
- mlx-tune は、Apple Silicon 上でネイティブに LLM のファインチューニングを可能にする Python ライブラリで、Apple の MLX フレームワークを使用します。
- SFT、DPO、ORPO、GRPO、KTO、SimPO のトレーナーを適切な損失実装とともにサポートし、視覚言語モデルのファインチューニングも可能です(Qwen3.5 でテスト済み)。API は Unsloth/TRL を模倣しており、import 行を単に変更するだけで Mac と CUDA で同じトレーニングスクリプトを実行できます。
- 8GB 以上の unified RAM 上で動作し、mlx-lm と mlx-vlm 上に構築され、LoRA/QLoRA、15 のモデルファミリー向けのチャットテンプレート、GGUF エクスポートを提供します。
- NVIDIA 上の Unsloth の代替ではなく、Mac でのローカルなプロトタイピングを想定しており、クラウド GPU へのスケール投入前の段階での利用を意図しています。GitHub: https://github.com/ARahim3/mlx-tune

