본 연구는 지속 가능 학습(CL) 분야에서 기존 방법들이 간과해왔던 범주명의 의미 정보 활용에 주목한다. 대부분의 기존 CL 방법들은 one-hot 레이블과 무작위 초기화된 분류기 헤드를 사용하는데, 이는 두 가지 문제를 야기한다. 첫째, 표현 공간의 drift가 발생하여 모델의 안정성이 저하된다. 둘째, 이전 과제와 새로운 과제 간 의미 상관관계 파악이 어려워 지식 전이가 효과적이지 않다.
이에 본 연구는 사전 훈련된 언어 모델(PLM)을 활용하여 분류기 헤드에 풍부한 의미 정보를 제공하는 LingoCL 방법을 제안한다. 구체적으로, 각 과제의 범주명을 PLM에 입력하여 의미 목표를 생성하고, 이를 고정된 상태로 유지하며 인코더 학습을 지도한다. 이를 통해 표현 공간의 drift를 완화하고 과제 간 지식 전이를 촉진할 수 있다.
실험 결과, LingoCL은 다양한 CL 기반 방법들에 통합되어 성능을 크게 향상시킨다. 예를 들어, ImageNet-100 데이터셋의 클래스 점진적 학습 실험에서 LingoCL은 기존 방법 대비 Top-1 정확도를 3.2%~6.1% 높이고, 망각률을 2.6%~13.1% 낮추었다. 또한 과제 점진적 학습과 도메인 점진적 학습 실험에서도 유사한 성능 향상을 보였다.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Bolin Ni,Hon... о arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.16124.pdfГлибші Запити