AI Navigate

[P] mlx-tune – Apple Silicon 上で MLX を用いた LLM のファインチューニング (SFT, DPO, GRPO, VLM)

Reddit r/MachineLearning / 2026/3/17

📰 ニュースDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • mlx-tune は、Apple Silicon 上でネイティブに LLM のファインチューニングを可能にする Python ライブラリで、Apple の MLX フレームワークを使用します。
  • SFT、DPO、ORPO、GRPO、KTO、SimPO のトレーナーを適切な損失実装とともにサポートし、視覚言語モデルのファインチューニングも可能です(Qwen3.5 でテスト済み)。API は Unsloth/TRL を模倣しており、import 行を単に変更するだけで Mac と CUDA で同じトレーニングスクリプトを実行できます。
  • 8GB 以上の unified RAM 上で動作し、mlx-lm と mlx-vlm 上に構築され、LoRA/QLoRA、15 のモデルファミリー向けのチャットテンプレート、GGUF エクスポートを提供します。
  • NVIDIA 上の Unsloth の代替ではなく、Mac でのローカルなプロトタイピングを想定しており、クラウド GPU へのスケール投入前の段階での利用を意図しています。GitHub: https://github.com/ARahim3/mlx-tune
[P] mlx-tune – Apple Silicon 上で MLX を使って LLMs をファインチューニング(SFT、DPO、GRPO、VLM)

mlx-tune は、Appleの MLX フレームワークを使用して、Apple Silicon 上でネイティブに LLM をファインチューニングするための Python ライブラリです。

SFT、DPO、ORPO、GRPO、KTO、SimPO のトレーナーと、適切な損失実装を備え、視覚-言語モデルのファインチューニングも可能です(Qwen3.5 でテスト済み)。API は Unsloth/TRL と同等で、Mac と CUDA の両方で同じトレーニングスクリプトを実行できます — インポート行を変更するだけです。

mlx-lm と mlx-vlm の上に構築されています。LoRA/QLoRA、15 モデルファミリ用のチャットテンプレート、GGUF エクスポート。8GB 以上の統合 RAM で動作します。

NVIDIA 上の Unsloth の代替品ではありません — Mac 上でローカルにプロトタイピングを行い、クラウド GPU へ拡張する前の段階用です。

GitHub: https://github.com/ARahim3/mlx-tune

投稿者: /u/A-Rahim
[リンク] [コメント]