이 논문은 지속적 학습(Continual Learning, CL)을 위한 새로운 최적화 기법인 C-Flat을 제안한다. CL은 순차적으로 도착하는 작업에서 지속적으로 지식을 습득하는 능력으로, 모델의 일반화 능력이 핵심이다.
논문에서는 손실 함수의 평탄화를 통해 모델의 일반화 능력을 높이는 C-Flat 기법을 제안한다. C-Flat은 손실 함수의 최대 이웃 손실값과 곡률 정규화를 도입하여 이전 지식 공간과 현재 지식 공간 간의 일반화 격차를 완화한다.
C-Flat은 메모리 기반, 정규화 기반, 확장 기반 등 다양한 CL 접근법에 쉽게 적용할 수 있는 범용 최적화 기법이다. 실험 결과, C-Flat은 대부분의 경우에서 CL 성능을 향상시키는 것으로 나타났다.
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania