ミスゲーティングによるエネルギー・メモリ効率の高い継続学習
arXiv cs.AI / 2026/4/17
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、分類誤りが起きたときだけ重み更新を行う「memorized mistake-gated learning」という、生物学的にもっともらしいシナプス更新則を提案している。
- 現在および過去の誤りに基づいて更新をゲートすることで、パラメータ更新回数を約50%〜80%削減できるという。
- この手法は、既存の知識の上で新しい知識を学習するインクリメンタル/継続学習で特に有効だとしている。
- オンライン学習やリプレイ設定でも、更新回数が減ることで後で保持するデータのバッファ要件を抑えられる点が強調されている。
- 実装は少ないコード量で可能で、新たなハイパーパラメータを追加せず、計算オーバーヘッドもごく小さいと報告している。



