広告

llama-serverでの重大な変更?

Reddit r/LocalLLaMA / 2026/3/28

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • llama-serverの最新ビルドで、従来のllama.cppキャッシュからHuggingFaceのキャッシュディレクトリへモデルが自動移行されるようになったと報告されています。
  • 移行により、手元の全ての .gguf モデルが別形式(blob)として扱われるようになり、既存の起動・ローカルパス参照スクリプトが失敗するようになったようです。
  • エラー例として、従来想定していたパスではモデル読み込みができず、srv load_model が失敗する事象が示されています。
  • この変更はggml-org/llama.cppのコミットb8498(4日前)で追加されたとされ、ユーザーファイルへの不可逆な変更にも関わらず事前停止手段がない点が批判されています。

HuggingFaceによるggmlの買収の結果、あまり役に立たないものが1つあります。

最新ビルドのllama-serverを起動したとき、自動的にこれが実行されました:

================================================================================ WARNING: キャッシュをHuggingFaceキャッシュディレクトリへ移行 古いキャッシュ: /home/user/.cache/llama.cpp/ 新しいキャッシュ: /home/user/GEN-AI/hf_cache/hub この一度限りの移行では、-hfで以前にダウンロードされたモデルを、従来のllama.cppキャッシュから標準のHuggingFaceキャッシュへ移動します。--model-urlでダウンロードしたモデルには影響しません。 

================================================================================

そして、私のすべての .gguf モデルが移動され、blobに変換されました。つまり、起動スクリプトは、モデルが本来あるべき場所にもう存在しないため、すべて失敗します...

srv load_model: モデルの読み込みに失敗しました, '/home/user/GEN-AI/hf_cache/models/ggml-org_gpt-oss-20b-GGUF_gpt-oss-20b-mxfp4.gguf' 

また、各種マシンにggufを配布するための、私のモデル管理スクリプトすべても壊れます。

この変更は4日前のコミット b8498 で追加されました。ユーザーファイルに不可逆な変更を加える前に処理を止める手段を用意せず、こんな破壊的変更をリリースするのは誰なのでしょうか? HuggingFaceによる買収が物事を台無しにするだろうということは分かっていました。

投稿者 /u/hgshepherd
[link] [comments]

広告