이 논문은 사전 학습 모델 기반의 클래스 증분 학습 문제를 다룬다. 클래스 증분 학습은 새로운 클래스를 지속적으로 학습하면서 기존 지식을 유지하는 것이 핵심 과제이다. 사전 학습 모델을 활용하면 일반화된 특징을 얻을 수 있지만, 새로운 클래스 학습 시 기존 클래스에 대한 지식이 손실되는 문제가 있다.
이를 해결하기 위해 저자들은 ExpAndable Subspace Ensemble (EASE)를 제안한다. EASE는 사전 학습 모델에 경량 어댑터 모듈을 추가하여 각 증분 과제에 대한 고유한 하위 공간을 학습한다. 이를 통해 새로운 과제 학습이 기존 지식을 훼손하지 않도록 한다. 또한 이전 클래스의 프로토타입을 의미론적 유사도 기반으로 합성하여 분류기를 구축한다. 이를 통해 과거 데이터 없이도 효과적으로 분류기를 업데이트할 수 있다.
실험 결과, EASE는 다양한 벤치마크 데이터셋에서 최신 기법들을 크게 능가하는 성능을 보였다. 또한 시각화 및 분석을 통해 EASE의 효과성을 입증하였다.
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Da-Wei Zhou,... às arxiv.org 03-19-2024
https://arxiv.org/pdf/2403.12030.pdfPerguntas Mais Profundas