Core Concepts
Elastic Feature Consolidationは、Cold Startシナリオでのモデルの安定性と可塑性のバランスを実現します。
Abstract
EFCIL(Exemplar-Free Class Incremental Learning)は、前のタスクデータにアクセスせずにタスクシーケンスから学習することを目指しています。
Elastic Feature Consolidation(EFC)は、特徴表現を統合し、プロトタイプを使用して新しいタスクを効果的に学習します。
Empirical Feature Matrix(EFM)は、特徴空間で重要な方向に特徴ドリフトを制御するために使用されます。
Asymmetric Prototype Replay Loss(PR-ACE)は、古いタスク分類器を変化するバックボーンに適応させるために新しいタスクデータとプロトタイプをバランスさせます。
EFCは他の手法よりも優れたパフォーマンスを発揮し、Cold StartおよびWarm Startシナリオで最先端技術を凌駕します。
Stats
プロトタイプ更新後、Cold Startシナリオで10段階および20段階で4〜5ポイントの改善が見られました。
Quotes
"Elastic Feature Consolidation significantly outperforms the state-of-the-art on both Cold Start and Warm Start EFCIL."