核心概念
대규모 사전 학습 모델의 등장으로 클래스 증분 학습 분야에 큰 진전이 있었지만, 반복적인 미세 조정으로 인한 기존 지식의 망각 문제가 여전히 존재한다. 이에 본 연구는 첫 번째 과제에 대한 적응만으로도 이후 과제에 대한 플라스틱성을 확보할 수 있는 테스트 시간 적응 기법을 제안한다.
摘要
본 연구는 클래스 증분 학습(CIL)에 대한 새로운 접근법을 제안한다. CIL은 순차적으로 새로운 클래스를 학습하면서도 이전에 학습한 클래스에 대한 성능을 유지하는 문제이다.
기존 CIL 방법들은 각 과제마다 모델을 반복적으로 미세 조정하였지만, 이로 인해 기존 지식이 망각되는 문제가 있었다. 최근 대규모 사전 학습 모델(PTM)의 등장으로 CIL 분야에 큰 진전이 있었지만, 여전히 반복적인 미세 조정으로 인한 망각 문제가 존재한다.
본 연구는 이러한 문제를 해결하기 위해 테스트 시간 적응(TTA) 기법을 제안한다. 구체적으로 다음과 같은 두 단계로 구성된다:
- 첫 번째 과제에 대해서만 어댑터를 사용하여 PTM을 적응시킨다.
- 이후 과제에 대해서는 테스트 시간에 Layer Norm 파라미터만을 조정하여 적응시킨다. 그리고 테스트가 끝나면 모델을 첫 번째 과제 적응 상태로 초기화한다.
이를 통해 기존 지식의 망각 없이 새로운 과제에 대한 플라스틱성을 확보할 수 있다. 또한 테스트 시간 적응을 통해 일반적인 데이터 왜곡에 대한 강건성도 확보할 수 있다.
실험 결과, 제안 방법인 TTACIL은 다양한 CIL 벤치마크에서 기존 최신 방법들을 뛰어넘는 성능을 보였다. 특히 데이터 분포가 사전 학습 데이터와 크게 다른 경우에도 강건한 성능을 보였다.
统计
첫 번째 과제에 대해서만 모델을 학습하므로 계산 비용이 크게 감소한다.
테스트 시간 적응 과정에서 Layer Norm 파라미터만을 조정하므로 매우 적은 수의 파라미터만 업데이트된다.
引用
"대규모 사전 학습 모델의 등장으로 CIL 분야에 큰 진전이 있었지만, 반복적인 미세 조정으로 인한 기존 지식의 망각 문제가 여전히 존재한다."
"본 연구는 첫 번째 과제에 대한 적응만으로도 이후 과제에 대한 플라스틱성을 확보할 수 있는 테스트 시간 적응 기법을 제안한다."
"테스트 시간 적응을 통해 일반적인 데이터 왜곡에 대한 강건성도 확보할 수 있다."