HuggingFaceによるggmlの買収の結果、あまり役に立たないものが1つあります。
最新ビルドのllama-serverを起動したとき、自動的にこれが実行されました:
================================================================================ WARNING: キャッシュをHuggingFaceキャッシュディレクトリへ移行 古いキャッシュ: /home/user/.cache/llama.cpp/ 新しいキャッシュ: /home/user/GEN-AI/hf_cache/hub この一度限りの移行では、-hfで以前にダウンロードされたモデルを、従来のllama.cppキャッシュから標準のHuggingFaceキャッシュへ移動します。--model-urlでダウンロードしたモデルには影響しません。 ================================================================================
そして、私のすべての .gguf モデルが移動され、blobに変換されました。つまり、起動スクリプトは、モデルが本来あるべき場所にもう存在しないため、すべて失敗します...
srv load_model: モデルの読み込みに失敗しました, '/home/user/GEN-AI/hf_cache/models/ggml-org_gpt-oss-20b-GGUF_gpt-oss-20b-mxfp4.gguf' また、各種マシンにggufを配布するための、私のモデル管理スクリプトすべても壊れます。
この変更は4日前のコミット b8498 で追加されました。ユーザーファイルに不可逆な変更を加える前に処理を止める手段を用意せず、こんな破壊的変更をリリースするのは誰なのでしょうか? HuggingFaceによる買収が物事を台無しにするだろうということは分かっていました。
[link] [comments]



