概要: ゼロショット学習(ZSL)における近年の進展は、生成モデルの可能性を示している。一般に、生成的ZSLでは、意味プロトタイプに条件付けて視覚特徴を合成し、見えていないクラスのデータ分布をモデル化する。続いて、合成データ上で分類器を学習する。しかし、合成された特徴はしばしばタスクに無関心なままであり、その結果、性能が低下する。さらに、意味プロトタイプだけから忠実な分布を推論することは、意味的に類似しているが視覚的には異なるクラスに対しては不十分である。これらに対処し、ZSLをさらに前進させるために、本研究では、生成的ZSLのための視覚的手がかりを備えた、結果に基づく強化学習の枠組みであるRLVCを提案する。RLVCの中核は、強化学習によって生成モデルが自律的に自己進化し、それによって生成能力が暗黙に強化される点にある。具体的には、RLVCは結果に基づく報酬を用いて生成モデルを更新し、タスクに関連する特徴の合成を促す。さらに、(i) 合成特徴を視覚プロトタイプに整合させ、(ii) 強化学習の学習更新を安定化させるクラスごとの視覚的手がかりを導入する。学習プロセスとして、我々は新しいコールドスタート戦略を提示する。3つの代表的なZSLベンチマークに対する包括的な実験および分析により、RLVCが4.7%の向上を伴って先端(state-of-the-art)の結果を達成することを示す。
結果報酬強化学習と視覚的手がかりによる生成ゼロショット学習のインセンティブ化
arXiv cs.CV / 2026/3/24
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、タスク非依存の合成特徴量を超えて生成ゼロショット学習(ZSL)を改善するために、結果ベースの報酬とクラス別の視覚的手がかりを用いる強化学習フレームワーク「RLVC」を提案する。
- RLVCは、タスクに関連する特徴合成を促す報酬によって生成モデルを更新することで、自己進化(self-evolves)させる。これにより、セマンティックなプロトタイプだけでは視覚的な差異を捉えられないケースに対処する。
- 合成特徴量を視覚プロトタイプに整合させ、強化学習の学習更新を安定化させるための視覚的手がかりを導入する。
- RLVCの学習プロセスのための新しいコールドスタート学習戦略を提示する。
- 3つの一般的なZSLベンチマークでの実験により、従来結果に対して4.7%の改善を伴う最先端性能を報告している。




