Core Concepts
예시 없는 점진적 학습에서 초기 단계의 어려움을 해결하기 위해 특징 표현의 안정화와 적응을 통해 새로운 작업을 효과적으로 학습할 수 있다.
Abstract
이 논문은 예시 없는 점진적 학습(EFCIL)에서 초기 단계의 어려움을 해결하기 위한 방법을 제안한다. EFCIL은 이전 작업의 데이터에 접근할 수 없기 때문에 새로운 작업을 학습할 때 모델의 안정성과 가소성 사이의 균형을 유지하기 어렵다. 특히 초기 단계에서 충분한 데이터가 없어 높은 품질의 backbone을 학습하기 어려운 Cold Start 시나리오가 큰 문제가 된다.
이 논문에서는 Elastic Feature Consolidation (EFC)이라는 간단하고 효과적인 접근법을 제안한다. EFC는 이전 작업과 관련성이 높은 방향으로의 특징 표현 drift를 정규화하고, 프로토타입을 사용하여 작업 최근성 편향을 줄인다. EFC는 Empirical Feature Matrix (EFM)라는 추적 가능한 2차 근사를 활용하여 특징 drift를 정규화하고, 새로운 작업 데이터와 가우시안 프로토타입 간의 비대칭 크로스 엔트로피 손실을 통해 프로토타입 리허설을 효과적으로 수행한다.
실험 결과, EFC는 CIFAR-100, Tiny-ImageNet, ImageNet-Subset, ImageNet-1K 데이터셋에서 기존 최신 기법들을 크게 능가하는 성능을 보였다. 특히 Cold Start 시나리오에서 두드러진 성능 향상을 보였는데, 이는 EFC가 모델의 가소성을 유지하면서도 안정성을 효과적으로 향상시킬 수 있음을 보여준다.
Stats
새로운 작업을 학습할 때 이전 작업의 특징 표현 drift가 중요한 방향으로 정규화되어야 한다.
프로토타입 업데이트 시 이전 작업의 특징 drift 정보를 활용하면 성능이 향상된다.
Quotes
"Exemplar-Free Class Incremental Learning (EFCIL) aims to learn from a sequence of tasks without having access to previous task data."
"To address this problem, we propose a simple and effective approach that consolidates feature representations by regularizing drift in directions highly relevant to previous tasks and employs prototypes to reduce task-recency bias."
"Experimental results on CIFAR-100, Tiny-ImageNet, ImageNet-Subset and ImageNet-1K demonstrate that Elastic Feature Consolidation is better able to learn new tasks by maintaining model plasticity and significantly outperform the state-of-the-art."