SCOPE: 正交射影埋め込みを用いたセマンティック・コアセットによる連邦学習
arXiv cs.LG / 2026/3/16
📰 ニュースModels & Research
要点
- SCOPEは連邦学習のコアセットフレームワークで、異常をフィルタリングし、長尾分布の歪みを緩和するために冗長なデータを適応的に剪定します。
- 潜在空間の各データポイントを、表現スコア、多様性スコア、境界近接スコアを用いて評価し、特徴の信頼性、新規性、およびクラスの近接性を定量化します。
- 連邦サーバーとはスカラー指標のみを共有してグローバルなコンセンサスを構築し、通信効率の高い協調とノイズの局所フィルタリングの改善を可能にします。
- 実験結果は、アップリンク帯域幅を128倍から512倍削減し、ウォールクロック時間で7.72倍の加速を達成し、ローカルコアセット選択の際のFLOP数とVRAMのフットプリントを低減しつつ、グローバル精度を競争力のある水準で維持し、堅牢な収束を示します。
関連記事
[R] アイデンティティ・アンカーと権限階層の組み合わせが abliterated LLMs で 100% の拒否を実現 — システムプロンプトのみ、ファインチューニングなし
Reddit r/MachineLearning
[P] 自宅PC上の Vibecoded: Karpathyに触発されたAI支援の研究ループを用いて、約2700 Elo のブラウザでプレイ可能なニューラルチェスエンジンを構築
Reddit r/MachineLearning
DuckLLM 1.0 — 私の初めてのモデルを紹介します!
Reddit r/LocalLLaMA
FastFlowLMがLinux対応を追加したため、同社がサポートする全モデルをベンチマークしました。以下が結果です。
Reddit r/LocalLLaMA
高次元生存分析におけるネストしたモデルと非ネストモデルを比較する際に用いる評価指標は何ですか [D]
Reddit r/MachineLearning