概要: 継続学習は、分布シフト下でも忘れずにモデルを更新することを目指しますが、医療など多くの高リスクな導入では解釈可能性も同時に必要とされます。実務上、うまく適応するモデル(例:深層ネットワーク)はしばしば不透明である一方、解釈可能なモデル(例:決定木)はシフトに対して脆く、両方の性質を同時に達成することが困難です。そこで本研究では、概念の木(Tree of Concepts)を提案します。これは、浅い決定木を用いて固定された、ルールベースの概念インターフェースを定義し、生の特徴からこれらの概念を予測する概念ボトルネックモデルを学習する、解釈可能な継続学習フレームワークです。継続的な更新は、時間の経過に伴う概念意味の安定性を保ちながら、概念抽出器とラベルヘッドに作用します。その結果、連続する更新間でドリフトしない説明が得られます。継続学習プロトコルに基づく複数の表形式医療ベンチマークにおいて、本手法は、リプレイ強化型を含む既存のベースラインよりも、安定性と可塑性のトレードオフでより強い性能を達成します。これらの結果は、構造化された概念インターフェースが、非定常で高リスクな領域において一貫した監査インターフェースを維持しつつ、継続的な適応を支え得ることを示唆しています。
Tree of Concepts:非定常な臨床領域における解釈可能な継続学習
arXiv cs.LG / 2026/4/21
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、分布シフト下で忘れずに更新する継続学習と、医療などの高リスク領域で求められる解釈可能性を両立する難しさを扱います。
- 提案手法「Tree of Concepts」は、浅いルールベースの決定木で概念インターフェースを固定し、概念ボトルネックモデルで生データの特徴から概念を予測します。
- 継続的な更新では、概念意味(セマンティクス)を時間を通じて固定したまま、概念抽出器とラベルヘッドを更新し、説明のドリフトを抑えることを狙います。
- 複数の表形式の医療ベンチマークでの継続学習プロトコルにおいて、リプレイ強化版を含む既存ベースラインよりも安定性と可塑性のトレードオフが改善されました。
- 著者らは、構造化された概念インターフェースが、非定常な臨床環境でも継続適応しつつ監査可能な説明を一貫して保てる可能性を示唆すると結論づけています。




