본 연구는 지속 가능 학습(CL) 분야에서 기존 방법들이 간과해왔던 범주명의 의미 정보 활용에 주목한다. 대부분의 기존 CL 방법들은 one-hot 레이블과 무작위 초기화된 분류기 헤드를 사용하는데, 이는 두 가지 문제를 야기한다. 첫째, 표현 공간의 drift가 발생하여 모델의 안정성이 저하된다. 둘째, 이전 과제와 새로운 과제 간 의미 상관관계 파악이 어려워 지식 전이가 효과적이지 않다.
이에 본 연구는 사전 훈련된 언어 모델(PLM)을 활용하여 분류기 헤드에 풍부한 의미 정보를 제공하는 LingoCL 방법을 제안한다. 구체적으로, 각 과제의 범주명을 PLM에 입력하여 의미 목표를 생성하고, 이를 고정된 상태로 유지하며 인코더 학습을 지도한다. 이를 통해 표현 공간의 drift를 완화하고 과제 간 지식 전이를 촉진할 수 있다.
실험 결과, LingoCL은 다양한 CL 기반 방법들에 통합되어 성능을 크게 향상시킨다. 예를 들어, ImageNet-100 데이터셋의 클래스 점진적 학습 실험에서 LingoCL은 기존 방법 대비 Top-1 정확도를 3.2%~6.1% 높이고, 망각률을 2.6%~13.1% 낮추었다. 또한 과제 점진적 학습과 도메인 점진적 학습 실험에서도 유사한 성능 향상을 보였다.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Bolin Ni,Hon... lúc arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.16124.pdfYêu cầu sâu hơn