이 논문은 지속적 학습(CL) 문제를 다룬다. CL에서는 이전 작업의 데이터를 사용할 수 없는 상황에서 순차적으로 모델을 학습해야 한다. 이는 새로운 작업을 학습할 수 있는 가소성과 이전에 학습한 개념의 성능을 유지할 수 있는 안정성 사이의 균형을 맞추는 문제이다.
저자들은 이 문제를 해결하기 위해 이전 작업과 현재 작업의 모델 매개변수를 가중 평균하는 Continual Model Averaging(CoMA) 방법을 제안한다. CoMA는 현재 작업에 대한 높은 정확도를 달성하면서도 이전 가중치 구성에서 크게 벗어나지 않도록 한다.
또한 저자들은 Fisher 정보를 활용하여 각 매개변수의 중요도에 따라 가중치를 조정하는 Continual Fisher-weighted Model Averaging(CoFiMA)라는 개선된 방법을 제안한다. CoFiMA는 계산 효율성을 유지하면서도 상태 기술 성능을 크게 향상시킨다.
실험 결과, CoFiMA는 다양한 CL 벤치마크에서 기존 최신 기법을 능가하는 성능을 보여준다.
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
สอบถามเพิ่มเติม