Scalar Federated Learning for Linear Quadratic Regulator

arXiv cs.LG / 4/8/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • 提案されたScalarFedLQRは、異種エージェントのLQR制御において共通方策を学習するための、モデルフリーかつ通信効率重視のフェデレーテッド学習手法である。
  • 各エージェントは局所のゼロ次勾配推定に基づく勾配の「スカラー射影」だけを送信し、サーバ側でそれらを集約してグローバルな下降方向を復元することで、アップリンク通信をO(d)からO(1)に削減している。
  • 射影に伴う近似誤差は参加エージェント数の増加とともに減少し、その結果として大規模なフリートほど勾配復元が高精度になり、より大きいステップサイズと高次元でも速い線形収束が可能になると主張している。
  • 標準的な正則性条件のもとで各反復が安定(stabilizing)を保ち、平均LQRコストが線形速度で減少すること、さらに数値実験で通信削減を伴いながらフルグラディエント型のフェデレーテッドLQRに匹敵する性能が示されている。

Abstract

We propose ScalarFedLQR, a communication-efficient federated algorithm for model-free learning of a common policy in linear quadratic regulator (LQR) control of heterogeneous agents. The method builds on a decomposed projected gradient mechanism, in which each agent communicates only a scalar projection of a local zeroth-order gradient estimate. The server aggregates these scalar messages to reconstruct a global descent direction, reducing per-agent uplink communication from O(d) to O(1), independent of the policy dimension. Crucially, the projection-induced approximation error diminishes as the number of participating agents increases, yielding a favorable scaling law: larger fleets enable more accurate gradient recovery, admit larger stepsizes, and achieve faster linear convergence despite high dimensionality. Under standard regularity conditions, all iterates remain stabilizing and the average LQR cost decreases linearly fast. Numerical results demonstrate performance comparable to full-gradient federated LQR with substantially reduced communication.

Scalar Federated Learning for Linear Quadratic Regulator | AI Navigate