核心概念
신경망의 함수 공간 매개변수화를 통해 새로운 데이터를 효율적으로 통합하고 이전 지식을 유지할 수 있는 방법을 제안한다.
摘要
이 논문은 신경망을 가중치 공간에서 함수 공간으로 변환하는 기술인 SFR(Sparse Function-space Representation)을 소개한다. SFR의 주요 특징은 다음과 같다:
- 희소 매개변수화를 통해 대규모 데이터셋에 적용 가능하다.
- 이전 지식을 유지하여 연속 학습(continual learning)에 활용할 수 있다.
- 새로운 데이터를 효율적으로 통합할 수 있다.
구체적으로 SFR은 신경망을 함수 공간으로 변환하고 이를 희소 가우시안 프로세스로 근사한다. 이를 통해 대규모 데이터셋에서도 예측 불확실성을 효과적으로 모델링할 수 있다. 또한 SFR의 이중 매개변수화를 활용하여 연속 학습 시 이전 지식을 유지하고 새로운 데이터를 효율적으로 통합할 수 있다. 실험 결과, SFR은 이미지 데이터와 100만 개 이상의 대규모 데이터셋에서도 우수한 성능을 보였다. 또한 연속 학습과 강화 학습 문제에서도 효과적인 것으로 나타났다.
統計資料
신경망 모델의 MAP 가중치 w*는 정규화된 경험적 위험 최소화를 통해 학습된다.
신경망 모델의 가중치 공간 사후 분포는 라플라스 근사를 통해 근사할 수 있다.
라플라스 근사를 통해 얻은 선형 모델은 함수 공간에서 가우시안 프로세스로 표현할 수 있다.
引述
"Sequential learning paradigms pose challenges for gradient-based deep learning due to difficulties incorporating new data and retaining prior knowledge."
"Gaussian processes elegantly tackle these problems, they struggle with scalability and handling rich inputs, such as images."
"Our parameterization offers: (i) a way to scale function-space methods to large data sets via sparsification, (ii) retention of prior knowledge when access to past data is limited, and (iii) a mechanism to incorporate new data without retraining."