AI Navigate

AMD NPUでLinux上でLLMを動かせます!

Reddit r/LocalLLaMA / 2026/3/12

📰 ニュースDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • Ryzen AI 300/400シリーズのPCでLinuxを実行しているユーザーは、AMD Neural Processing Unit(NPU)上で大規模言語モデル(LLM)を直接実行でき、高速・低消費電力・静かなオンデバイス推論が可能になりました。
  • このソリューションは小規模なデモにとどまらず、AMD NPUのハードウェアアクセラレーションを活用した本格的なローカル推論ワークロードを可能にします。
  • ソフトウェアスタックには、Linux 7.0以降のカーネルNPUドライバー、XDNA NPU向けAMD IRONコンパイラー、AMD NPU最適化のFastFlowLM(FLM)ランタイム、軽量ローカルモデルサービング用のLemonade Serverが含まれます。
  • 興味のあるユーザーは、Lemonade ServerおよびFastFlowLMプロジェクトの詳細なガイドやGitHubリポジトリにアクセスでき、Discordでのコミュニティディスカッションへの参加を推奨されています。
  • これにより、Linuxマシン上でのAI推論ワークロードにAMD NPUを活用する実用的な道が開かれ、開発者や企業がAMDハードウェア上で効率的にAIアプリケーションを構築する機会が広がります。
You can run LLMs on your AMD NPU on Linux!

もしRyzen™ AI 300/400シリーズのPCをお持ちでLinuxを実行しているなら、朗報です!

今やAMD NPU上で直接LLMを高速かつ非常に低消費電力で、静かにオンデバイスで動作させることができます。

小さなデモだけでなく、本格的なローカル推論です。

はじめに

🍋 Lemonade Server

AMD NPU上でモデルを動かすための軽量ローカルサーバーです。

ガイド: https://lemonade-server.ai/flm_npu_linux.html
GitHub: https://github.com/lemonade-sdk/lemonade

⚡ FastFlowLM (FLM)

AMD NPUに最適化された軽量ランタイムです。

GitHub:
https://github.com/FastFlowLM/FastFlowLM

このスタックは以下を組み合わせています:

  • Linux 7.0以降カーネルに含まれる上流のNPUドライバー(6.xxカーネル向けのバックポートもあり)
  • XDNA NPU用のAMD IRONコンパイラー
  • FLMランタイム
  • Lemonade Server 🍋

ぜひ試してみて、何を作ったかを🍋Discordで教えてください:https://discord.gg/5xXzkMu8Zk

submitted by /u/BandEnvironmental834
[link] [comments]