연속 학습(CL)은 이전 과제의 지식을 망각하는 재앙적 망각 문제에 직면한다. 리허설 기반 접근법은 이를 완화하는데 효과적이지만, 제한된 메모리 버퍼 환경에서는 버퍼 샘플에 대한 과적합과 이전 정보 손실로 인해 일반화 성능이 저하된다.
이에 저자들은 인간의 학습 방식에서 영감을 얻어 IMEX-Reg를 제안했다. IMEX-Reg는 암시적 정규화와 명시적 정규화를 결합한 접근법이다:
실험 결과, IMEX-Reg는 다양한 CL 시나리오에서 기존 방법들을 크게 능가하는 일반화 성능을 보였다. 또한 자연 및 적대적 훼손에 대한 강건성과 과제 최근성 편향이 적은 특성을 보였다. 이론적 분석을 통해 IMEX-Reg의 설계 결정을 뒷받침하였다.
To Another Language
from source content
arxiv.org
Viktige innsikter hentet fra
by Prashant Bha... klokken arxiv.org 04-30-2024
https://arxiv.org/pdf/2404.18161.pdfDypere Spørsmål