核心概念
회전 데이터 증강과 지식 증류를 결합한 새로운 클래스 증분 학습 기법인 RAD가 기존 방법들보다 우수한 성능을 보인다.
摘要
이 논문은 클래스 증분 학습(CIL) 문제를 다룬다. CIL은 새로운 클래스를 순차적으로 학습하면서 이전 클래스에 대한 성능도 유지하는 것을 목표로 한다. 기존 방법들은 이전 과제의 데이터 샘플을 저장하는 방식을 사용했지만, 이 논문에서는 이전 데이터 샘플을 저장하지 않는 Exemplar-Free CIL(EFCIL) 설정을 다룬다.
저자들은 기존 EFCIL 방법들의 성능을 상세히 분석하고, 새로운 기법인 Rotation Augmented Distillation(RAD)을 제안한다. RAD는 회전 데이터 증강과 지식 증류를 결합하여 플라스틱성과 안정성의 균형을 달성한다. 실험 결과, RAD는 다양한 EFCIL 설정에서 최고 수준의 성능을 보였다.
또한 저자들은 초기 모델이 강해지는 기존 EFCIL 설정의 편향을 해결하기 위해 더 어려운 EFCIL 설정을 제안했다. 이 설정에서도 RAD가 우수한 성능을 보였다.
統計資料
회전 데이터 증강을 사용하면 이전 지식 망각은 줄어들지만 새로운 지식 학습이 어려워진다.
지식 증류를 사용하면 이전 지식 망각을 줄이고 새로운 지식 학습도 향상된다.
RAD는 회전 증강과 지식 증류를 결합하여 플라스틱성과 안정성의 균형을 달성한다.
引述
"Class incremental learning (CIL) aims to recognize both the old and new classes along the increment tasks."
"Balancing the plasticity and stability in deep feature learning with only supervision from new classes is more challenging."
"Detailed analysis shows our RAD benefits from the superior balance between plasticity and stability."