이 논문은 클래스 증분 학습(CIL) 문제를 다룬다. CIL은 새로운 클래스를 순차적으로 학습하면서 이전 클래스에 대한 성능도 유지하는 것을 목표로 한다. 기존 방법들은 이전 과제의 데이터 샘플을 저장하는 방식을 사용했지만, 이 논문에서는 이전 데이터 샘플을 저장하지 않는 Exemplar-Free CIL(EFCIL) 설정을 다룬다.
저자들은 기존 EFCIL 방법들의 성능을 상세히 분석하고, 새로운 기법인 Rotation Augmented Distillation(RAD)을 제안한다. RAD는 회전 데이터 증강과 지식 증류를 결합하여 플라스틱성과 안정성의 균형을 달성한다. 실험 결과, RAD는 다양한 EFCIL 설정에서 최고 수준의 성능을 보였다.
또한 저자들은 초기 모델이 강해지는 기존 EFCIL 설정의 편향을 해결하기 위해 더 어려운 EFCIL 설정을 제안했다. 이 설정에서도 RAD가 우수한 성능을 보였다.
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Xiuwei Chen,... pada arxiv.org 03-19-2024
https://arxiv.org/pdf/2308.15236.pdfPertanyaan yang Lebih Dalam