이 논문은 연속 학습 문제를 해결하기 위한 새로운 방법을 제안한다. 기존의 연속 학습 방법들은 외부 메모리나 추가적인 모델 용량을 필요로 하는 문제가 있었다. 이를 해결하기 위해 저자들은 Lottery Ticket Hypothesis에 기반한 Winning SubNetworks(WSN)를 제안했다. WSN은 기존 네트워크 내부에서 과거 작업에 대한 하위 네트워크를 선별적으로 재사용하여 새로운 작업을 학습한다.
또한 저자들은 복잡한 비디오 데이터에 대한 표현력을 높이기 위해 Fourier Subneural Operator(FSO)를 제안했다. FSO는 신경망 표현을 실수부와 허수부로 분해하고 주기 신호를 효율적으로 표현할 수 있는 가중치를 선별적으로 식별한다. 저자들은 FSO를 다양한 연속 학습 시나리오(TIL, TaIL, VIL, FSCIL)에 적용하여 그 효과를 검증했다.
실험 결과, FSO를 적용한 모델이 기존 WSN 모델보다 우수한 성능을 보였다. 특히 VIL 태스크에서 FSO가 기존 방식보다 낮은 계층에서 더 나은 성능을 보였다. 또한 FSCIL 태스크에서는 SoftNet이라는 변형된 WSN 모델이 과적합 문제를 해결하여 좋은 성능을 보였다.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Haeyong Kang... о arxiv.org 09-19-2024
https://arxiv.org/pdf/2312.11973.pdfГлибші Запити