ik_llama.cpp は CPU & CUDA の両方にとって素晴らしいです。Vulkan もより良くするためのレジェンドが必要ですね。
https://github.com/ikawrakow/ik_llama.cpp/discussions/590#discussioncomment-16357564
つまり、以前に Vulkan バックエンドをなんとか動くレベルまで持っていった後、「自分にはそれを維持するだけの余力はあるが、さらに維持まで追加で面倒を見続けるほどの帯域(リソース)がない」と感じました。
llama.cppには、Vulkan だけを担当している 2 人のメンテナーがいます。
ただし、あなたがそれをやってくれる気があるなら、Vulkan を復活させてみることはできます。特に関心があるのは、Vulkan バックエンドにおけるグラフ並列の仕組みの実装です(前回の取り組み以降に溜まってしまった、かなり多くの不足しているオペレーションを移植した後になります)。
おそらく問題になるのは、私は Vulkan に関して完全な初心者だということです。なので、Claude の助けで準備した CPU 側の変更のときのように、すぐに問題点を見つけられるわけではなく、Vulkan では Claude の言うなりになってしまい、時間が経つにつれて完全な大惨事になる可能性があります。だから、ik_llama.cppの Vulkan メンテナーになりたいなら、少なくとも私は私よりもかなり知識が必要だと思います。
https://github.com/ikawrakow/ik_llama.cpp/pull/608
https://github.com/ikawrakow/ik_llama.cpp/discussions/562
事前にありがとうございます!
[link] [comments]




