TL;DR. 同一データで学習した2つの1.2BパラメータLM(同じ順序、同じシード、30Kステップ / 3.9Bトークン)の間で、ブラインドA/B選好評価を実施しました。一方は、予測符号化(Predictive-Coding)に触発された精度重み付きゲイン関数に加え、層ごとの発散スケーリング付き勾配を用いたもの、もう一方は標準的なクロスエントロピーです。両者の平滑化された検証損失(val loss)は統計的に区別不能でした(0.004-natの差で、ステップ間のノイズの範囲内)。10人の審査員(人間7人、Anthropic / OpenAI / Googleの基盤モデル3つ)が320件の一対比較を行いました。ゲイン学習モデルは、決定的比較における63.4%で好まれました(p = 1.98 × 10⁻⁵、両側二項検定)。学習時間での介入(RLHFではない)は、集計された損失指標を変えないまま、人間の選好を有意にシフトし得ることを示しています。
手法(簡潔に)。 合成可能な2つのメカニズム:
- トークンごとの精度重み付きゲイン:
gain_i = 1 + s · (ℓ_i − mean(ℓ)) / var(ℓ)を、バックワード前にトークンごとのCEに適用します。平均で正規化されるように設計されているため、全体の勾配予算は保存されます。ゲイン重みは切り離されている(detached)ので、ゲイン自身が独自の勾配を生み出しません。 - 層ごとの発散(divergence)スケーリング付き勾配: バックワード後、各トランスフォーマーブロックのパラメータ勾配に、フォワードパス中に測定された
‖x_out − x_in‖ / ‖x_in‖に比例する因子を掛けます。こちらも平均で正規化されています。
両者とも、オプティマイザ非依存・アーキテクチャ非依存で、ステップあたりのいくつかの要素ごとの演算コストだけが追加され、スループットへの測定可能な影響はありません。
私の特定の手法が一般化しないとしても、一般化すると考えている発見: ゲインの平均正規化は要(load-bearing)です。フェーズ1の実験(50Mパラメータ)では、確信のあるトークンに対する勾配を抑える形状バリアント(focal loss)や、学習中にゲイン/平均を1.0から逸脱させるもの(sigmoid のようなもの)はいずれも学習が破綻しました。作動する精度(precision)に基づく定式化では、バッチ平均でセンタリングすることで、構成上 gain/mean = 1.0 が強制されます。
懐疑的な人のために事前に認めておく制限:
- 単一シード、単一ペアで1.2B。まだ複数シードの再現は行っていません。
- Chinchillaの最適学習の16.4%(約1.2Bパラメータモデルに対して3.9Bトークン、Chinchillaなら約24Bを指示するはず)です。
- 私は2つのメカニズム(トークンゲイン vs 層ゲイン)を、1.2Bスケールで別々にアブレーションしなかったため、どちらが実際に効いているのかを特定できません。1.5Bでのペア化アブレーション(進行中のフル-Chinchilla実行)は、層ゲインメカニズムの特定の1点――発散正規化における層0の参加――が要であることを確認しています。
- A/Bプロンプトは短形式です。両方のモデルが、長文の一貫した出力を行うほど十分に学習されていないためです。
- 3人の基盤モデルの審査員は3つのラボにまたがっていますが、ウェブコーパスの学習データは共有しています。人間とFMは同じ結論に収束しました(65.3% vs 59.8%の決定的選好)。これは安心材料ですが、決定打(dispositive)ではありません。
リンク
- 論文(PDF)およびメソッドコード:github.com/troycorbinz/precision-weighted-training
- A/B評価のWebアプリおよび生の学習指標(JSON):同じリポジトリ
- 学習実行は非公開のW&Bプロジェクトに記録されていますが、論文中の数値に関する主張はすべて、
/paper/data配下のJSONファイルから独立に検証可能です。
最後にお願い。 私は所属機関のない独立研究者で、これをarXiv(cs.LGを主、cs.CLをクロスリスト)に投稿したいです。cs.LGの推薦を1つ必要としています。もし以前にcs.LGへの投稿をしたことがあり、論文を読んだ上で基準を満たしていると思うなら、推薦の承諾をいただけるとありがたいです――推薦コードは用意できています。率直な不承諾でも問題ありません。何も言われないよりは、「できない」のほうが良いです。
質問への回答、主張の防御、または反論の受け入れも喜んで行います。
[link] [comments]


