概要: 緩やかな学習(継続学習)において、壊滅的忘却は依然として根本的な課題であり、新しいタスクで微調整すると、モデルが以前に獲得した知識を忘れてしまうことが多いです。この問題は、継続学習の中でも最も難しい設定であるクラス順次学習(CIL)で特に顕著です。壊滅的忘却に対処するための既存手法は、多くの場合、モデルの解釈可能性か精度のどちらかを犠牲にします。この課題に取り組むために、本研究では、クラス順次コンセプト・ボトルネックモデル(ClassIncremental Concept Bottleneck Model: CI-CBM)を導入します。CI-CBMは、概念の正則化や擬似概念生成を含む有効な技術を活用し、順次学習の各フェーズを通じて、解釈可能な意思決定プロセスを維持します。7つのデータセットに対する大規模な評価の結果、CI-CBMはブラックボックスモデルと同等の性能を達成し、またCILにおける従来の解釈可能な手法を上回ります。平均で36%の精度向上が得られます。実験結果が示すとおり、CICBMは個々の入力に対して解釈可能な判断を提供し、さらに理解可能なグローバルな意思決定ルールも提示します。これにより、モデル性能を損なうことなく、順次学習の間に人が理解できる概念を維持できることを示します。本手法は、事前学習済みと非事前学習の両方の状況で有効です。後者では、最初の学習フェーズ中にバックボーンを最初から学習します。コードは公開されています: github.com/importAmir/CI-CBM。
CI-CBM:クラス逐次(Class-Incremental)コンセプト・ボトルネック・モデルによる解釈可能な継続学習
arXiv cs.LG / 2026/4/17
📰 ニュースDeveloper Stack & InfrastructureModels & Research
要点
- 継続学習における致命的忘却(catastrophic forgetting)は大きな課題であり、特にクラス逐次学習(CIL)では過去の知識を失わずに新しいクラスを学習する必要があるため問題が深刻です。
- 本論文は、概念正則化(concept regularization)と擬似コンセプト生成(pseudo-concept generation)を用いて解釈可能性を保ちつつ忘却に対処するCI-CBM(Class-Incremental Concept Bottleneck Model)を提案します。
- 7つのデータセットでの評価では、CI-CBMはブラックボックスモデルと同等の性能を達成し、CILにおいて既存の解釈可能手法を平均36%の精度向上で上回ります。
- 入力ごとの解釈可能な判断と、実験結果で示される人間が理解できる全体的な意思決定ルールの両方を提供し、性能を損なうことなく増分学習中に人間が理解できる概念を維持できることを示しています。
- コードはGitHubで公開されており、再現や追加検証に利用できます。




