このリリースからすでにデフォルトでattn rotateは有効になっているのですか?SW A attentionへの対応はありますか?

Reddit r/LocalLLaMA / 2026/4/8

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • 投稿者は、llama.cppの「attn rotate(attention rotation)」がコアのPRで既にマージされているはずなのに、なぜ最近のリリースで確認できないのかを質問している。
  • attn rotateが有効化されるタイミング(デフォルトで有効かどうか)について、リリース内容や設定状況の確認を求めている。
  • さらに、リリース後に「SWA(おそらくStochastic Weight Averagingや関連するSWA attention)への対応」が追加されているのではないかという観点も含めている。
  • これは特定の新機能の公式発表というより、コミュニティ内での利用状況・挙動のすり合わせ(情報不足の確認)に関するスレッドである。
このリリース以降、attn rotate はデフォルトで既に有効になっているのですか? SWA の attention をサポートしているということですか?

ここ2週間、私の日課には、attn rotate がマージされたかどうかを確認するために main llama.cpp のリリースをチェックすることが含まれています。何か見落としてますか? コアの回転 PR がマージされているなら、もうそこにあるはずですよね。デフォルトで有効になっていますか?

によって投稿 /u/Altruistic_Heat_9531
[link] [comments]