核心概念
기존 방법들과 달리 복잡한 구형 특징 생성 없이도 효과적인 클래스 증분 학습이 가능한 점진적 표현 프레임워크를 제안한다.
要約
이 논문은 클래스 증분 학습(CIL) 문제를 다룬다. CIL은 새로운 클래스를 지속적으로 학습하면서도 이전에 학습한 정보를 유지하는 일반화된 학습 패러다임이다.
저자들은 기존 CIL 방법들이 이전 클래스의 샘플을 저장하거나 복잡한 구형 특징을 생성하는 것에 비해, 단순하면서도 효과적인 점진적 표현(IR) 프레임워크를 제안한다. IR은 데이터 증강 기법을 통해 적절한 특징 공간을 구축하고, 단일 L2 손실 함수로 이전 지식을 유지한다. 또한 증분 학습 과정에서 매번 새로운 분류기를 학습하는 대신 1-최근접 이웃 분류기를 사용한다.
실험 결과, IR은 기존 방법들과 비교해 유사한 성능을 보이면서도 모델의 망각을 크게 개선했다. 이는 적절한 특징 공간 구축이 CIL에 핵심적임을 보여준다. 또한 IR은 구형 특징 생성 없이도 효과적인 CIL이 가능함을 입증한다.
統計
모델 저장을 위한 메모리 사용량은 ResNet-18 기반 모델에서 약 43.33MB이다.
예시 기반 방법들은 모델 저장 외에도 샘플 저장을 위해 추가 메모리가 필요하지만, IR은 샘플을 저장하지 않는다.
引用
"An initial feature representation covering a proper feature space is essential for efCIL, and we experimentally verify that the dataset rotation or mixup technique is powerful enough to achieve it."
"We develop a general efCIL framework, which empirically turns out to be more straightforward but effective in that it throws away 1) the top incremental classifiers trained on each task and 2) the procedures of elaborately optimizing and constructing old pseudo-features."