본 연구는 클래스 증분 학습(CIL)에 대한 새로운 접근법을 제안한다. CIL은 순차적으로 새로운 클래스를 학습하면서도 이전에 학습한 클래스에 대한 성능을 유지하는 문제이다.
기존 CIL 방법들은 각 과제마다 모델을 반복적으로 미세 조정하였지만, 이로 인해 기존 지식이 망각되는 문제가 있었다. 최근 대규모 사전 학습 모델(PTM)의 등장으로 CIL 분야에 큰 진전이 있었지만, 여전히 반복적인 미세 조정으로 인한 망각 문제가 존재한다.
본 연구는 이러한 문제를 해결하기 위해 테스트 시간 적응(TTA) 기법을 제안한다. 구체적으로 다음과 같은 두 단계로 구성된다:
이를 통해 기존 지식의 망각 없이 새로운 과제에 대한 플라스틱성을 확보할 수 있다. 또한 테스트 시간 적응을 통해 일반적인 데이터 왜곡에 대한 강건성도 확보할 수 있다.
실험 결과, 제안 방법인 TTACIL은 다양한 CIL 벤치마크에서 기존 최신 방법들을 뛰어넘는 성능을 보였다. 특히 데이터 분포가 사전 학습 데이터와 크게 다른 경우에도 강건한 성능을 보였다.
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania