AI Navigate

MLXはどうなっているのか?

Reddit r/LocalLLaMA / 2026/3/17

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • 投稿は、MLXはローカルモデルをセルフホストする用途には依然として高い性能を発揮している一方で、最近その品質が低下していると認識されていると指摘している。
  • MLXを頻繁にテンプレートを更新し、量子化を修正し、ツールを改善している活発なGGUFコミュニティと比べて不利に評価している。
  • mlx-communityのQwen-3.5コレクションにはモデルがごくわずかしかなく、残りのモデルには継続的なメンテナンスがほとんど行われていないと指摘している。
  • Discord上で有益な返信が不足しており、MLXコミュニティはほとんど死んでいるかのように感じられ、議論が少ないと指摘している。

私はMac Miniのユーザーで、最初にローカルモデルをセルフホストし始めた時、MLXは素晴らしいもののように感じました。性能面では今もそうですが、最近は品質の面でそうではないと感じます。

これは「直近15分にコミットがなかったら MLX は死んだ」という類の投稿ではありません。実際にそこで何が起きているのかを知りたいです。そして、リポジトリの活動だけで自分で理解できるほど AI に精通しているわけではありません。ですので、この件について洞察を共有してくれる方がいれば大変ありがたいです。

私が言っていることの例を挙げます: 1. 私の見るところ GGUF コミュニティは非常に活発に見えます:テンプレートを更新し、量子化を修正し、量子化を比較して改善しています;しかし MLX ではこのようなことは起きていないようです — 私は GGUF のリポジトリからテンプレートの修正をコピーしています。 2. mlx-community の mlx-community の Qwen 3.5 コレクション を開くと表示されるのは最大の4つのモデルだけです;コミュニティによって他にも変換されたモデルはありますが、このコレクションを「維持する」と思われる人は誰もいないようです。 3. Discord で何度か質問を試みましたが、ほとんど死んでいるかのように感じます — 回答もなく、議論もありません。

投稿者: /u/gyzerok
[リンク] [コメント]