이 논문은 지속적 학습의 주요 과제인 재앙적 망각 문제를 해결하기 위한 새로운 방법인 베이지안 적응 모멘트 정규화(BAdam)를 제안한다.
BAdam은 베이지안 경사 하강법(BGD)의 폐쇄형 업데이트 규칙과 Adam 최적화기의 장점을 결합한다. 이를 통해 빠른 수렴 속도와 더불어 매개변수 업데이트를 효과적으로 제한하여 재앙적 망각을 줄일 수 있다.
실험 결과, BAdam은 기존 정규화 기반 방법들에 비해 단일 헤드 클래스 증분 학습 문제에서 월등한 성능을 보였다. 특히 SplitMNIST와 SplitFashionMNIST 벤치마크에서 기존 방법들의 성능을 두 배 이상 향상시켰다. 또한 점진적 과제 경계와 과제 레이블 없이 단일 에폭 학습을 수행하는 새로운 실험 환경에서도 BAdam이 가장 우수한 성능을 달성했다.
이 연구는 정규화 기반 지속적 학습 방법의 성능을 크게 향상시키는 중요한 진전을 이루었다. 향후 연구에서는 최적화 기법의 추가적인 개선과 더불어 지속적 학습의 다른 한계를 극복하는 방향으로 발전할 수 있을 것이다.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Jack Foster,... о arxiv.org 04-05-2024
https://arxiv.org/pdf/2309.08546.pdfГлибші Запити