| ここ2週間、私の日課には、attn rotate がマージされたかどうかを確認するために main llama.cpp のリリースをチェックすることが含まれています。何か見落としてますか? コアの回転 PR がマージされているなら、もうそこにあるはずですよね。デフォルトで有効になっていますか? [link] [comments] |
このリリースからすでにデフォルトでattn rotateは有効になっているのですか?SW A attentionへの対応はありますか?
Reddit r/LocalLLaMA / 2026/4/8
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- 投稿者は、llama.cppの「attn rotate(attention rotation)」がコアのPRで既にマージされているはずなのに、なぜ最近のリリースで確認できないのかを質問している。
- attn rotateが有効化されるタイミング(デフォルトで有効かどうか)について、リリース内容や設定状況の確認を求めている。
- さらに、リリース後に「SWA(おそらくStochastic Weight Averagingや関連するSWA attention)への対応」が追加されているのではないかという観点も含めている。
- これは特定の新機能の公式発表というより、コミュニティ内での利用状況・挙動のすり合わせ(情報不足の確認)に関するスレッドである。




