AI Navigate

MLX の性能をさらに引き出す

Reddit r/LocalLLaMA / 2026/3/19

📰 ニュースTools & Practical Usage

要点

  • AFM MLX は macOS 向けに最適化され、より高いパフォーマンスを引き出す 100% ネイティブの Swift 製オープンソースソリューションです。
  • Homebrew(brew install scouzi1966/afm/afm)または pip(pip install macafm)でインストールできます。
  • この更新により、異なるコンテキストでのマルチエージェント作業をサポートするために、同時接続を伴うバッチモードが利用可能になり、スループットが向上します。
  • 新しい --enable-prefix-cache フラグは、マルチターン会話でコンテキスト全体を再計算することを避け、GPU リソースを節約します。
  • この投稿には AFM と Python MLX のビジュアル比較が含まれており、詳細は GitHub リポジトリへのリンクが掲載されています。
Squeeze even more performance on MLX

AFM MLX は、MacOs 上で Python バージョンよりもさらに多くのパフォーマンスを引き出すよう最適化されています。100% ネイティブの Swift で、100% オープンソースです。

https://github.com/scouzi1966/maclocal-api

インストール方法:

brew install scouzi1966/afm/afm 

または

pip install macafm 

すべての機能を見るには:

afm mlx -h 

バッチモード。複数の接続を同時に使うと、はるかに多くのトークンを複数の接続で生成できます。これは、異なるコンテキストを持つマルチエージェント作業に適しています。

AFM vs Python MLX

--enable-prefix-cache フラグを使うことで、エージェントとのマルチターン会話で全体のコンテキストを再計算してGPUリソースを無駄に消費するのを避けることができます。

https://preview.redd.it/r26otzqvnzpg1.png?width=2940&format=png&auto=webp&s=b5540f2583b8bf9a78fe451cb83ace2558695ceb

投稿者: /u/scousi
[リンク] [コメント]