المفاهيم الأساسية
사전 학습된 모델의 중간 층 표현을 활용하여 도메인 변화에 강건하고 효율적인 지속 학습 방법을 제안한다.
الملخص
이 논문은 사전 학습된 모델의 중간 층 표현을 활용하여 지속 학습 문제를 해결하는 LayUP 방법을 제안한다. 기존 연구들은 주로 사전 학습된 모델의 마지막 층 표현만을 사용했지만, 저자들은 중간 층 표현이 도메인 변화에 더 강건하고 효과적일 수 있다고 주장한다.
LayUP는 다음과 같은 특징을 가진다:
사전 학습된 모델의 중간 층 표현을 활용하여 클래스 프로토타입을 구축한다. 이를 통해 도메인 변화에 더 강건한 분류기를 만들 수 있다.
중간 층 표현의 상관관계를 고려하여 프로토타입을 디커렐레이션한다. 이를 통해 클래스 간 분리도를 높일 수 있다.
첫 번째 과제 적응(FSA) 기법을 활용하여 사전 학습된 모델의 표현을 미세 조정한다.
실험 결과, LayUP는 기존 방법들에 비해 우수한 성능을 보였으며, 특히 도메인 변화가 큰 경우와 데이터가 적은 경우에 효과적이었다. 또한 메모리와 계산 복잡도 측면에서도 기존 방법들보다 효율적이었다.
الإحصائيات
사전 학습된 ViT-B/16 모델의 중간 층 표현을 활용하면 최종 층 표현만 사용할 때보다 최대 32%의 클래스에서 더 나은 성능을 보인다.
LayUP는 기존 방법들에 비해 메모리 요구량을 최대 81% 감소시킬 수 있다.
LayUP는 기존 방법들에 비해 추론 시 계산 복잡도를 최대 90% 감소시킬 수 있다.
اقتباسات
"LayUP surpasses the state of the art in four of the seven class-incremental learning benchmarks, all three domain-incremental learning benchmarks and in six of the seven online continual learning benchmarks, while significantly reducing memory and computational requirements compared to existing baselines."
"Our results demonstrate that fully exhausting the representational capacities of pre-trained models in CL goes well beyond their final embeddings."