본 연구는 클래스 증분 학습(CIL)에 대한 새로운 접근법을 제안한다. CIL은 순차적으로 새로운 클래스를 학습하면서도 이전에 학습한 클래스에 대한 성능을 유지하는 문제이다.
기존 CIL 방법들은 각 과제마다 모델을 반복적으로 미세 조정하였지만, 이로 인해 기존 지식이 망각되는 문제가 있었다. 최근 대규모 사전 학습 모델(PTM)의 등장으로 CIL 분야에 큰 진전이 있었지만, 여전히 반복적인 미세 조정으로 인한 망각 문제가 존재한다.
본 연구는 이러한 문제를 해결하기 위해 테스트 시간 적응(TTA) 기법을 제안한다. 구체적으로 다음과 같은 두 단계로 구성된다:
이를 통해 기존 지식의 망각 없이 새로운 과제에 대한 플라스틱성을 확보할 수 있다. 또한 테스트 시간 적응을 통해 일반적인 데이터 왜곡에 대한 강건성도 확보할 수 있다.
실험 결과, 제안 방법인 TTACIL은 다양한 CIL 벤치마크에서 기존 최신 방법들을 뛰어넘는 성능을 보였다. 특히 데이터 분포가 사전 학습 데이터와 크게 다른 경우에도 강건한 성능을 보였다.
Іншою мовою
із вихідного контенту
arxiv.org
Глибші Запити