Centrala begrepp
지속적 학습에서는 표준 하이퍼파라미터 최적화를 적용할 수 없기 때문에, 지속적 학습에 특화된 새로운 하이퍼파라미터 최적화 프레임워크가 필요하다.
Sammanfattning
이 논문은 지속적 학습 문제에서 사용할 수 있는 다양한 현실적인 하이퍼파라미터 최적화 프레임워크를 평가한다.
- 지속적 학습에서는 표준 하이퍼파라미터 최적화를 적용할 수 없다. 이는 학습자가 한 번에 모든 데이터에 접근할 수 없기 때문이다.
- 가장 일반적인 하이퍼파라미터 최적화 방법은 전체 데이터 스트림에서 다양한 하이퍼파라미터 설정으로 학습을 반복하고, 최종 성능이 가장 좋은 설정을 선택하는 것이다.
- 그러나 이 방법은 현실적이지 않다. 실제로는 학습자가 데이터 스트림을 한 번만 볼 수 있기 때문이다.
- 따라서 이 논문에서는 현실적이고 효율적인 하이퍼파라미터 최적화 프레임워크를 찾는 것을 목표로 한다.
- 실험 결과, 모든 하이퍼파라미터 최적화 프레임워크가 유사한 성능을 보였다. 따라서 가장 현실적이고 효율적인 방법인 첫 번째 과제에서 하이퍼파라미터를 최적화하고 이후 고정하는 방법을 추천한다.
Statistik
지속적 학습에서는 표준 하이퍼파라미터 최적화를 적용할 수 없다.
전체 데이터 스트림에서 다양한 하이퍼파라미터 설정으로 학습을 반복하고 최종 성능이 가장 좋은 설정을 선택하는 방법은 현실적이지 않다.
이 논문에서는 현실적이고 효율적인 하이퍼파라미터 최적화 프레임워크를 찾는 것을 목표로 한다.
실험 결과, 모든 하이퍼파라미터 최적화 프레임워크가 유사한 성능을 보였다.
따라서 가장 현실적이고 효율적인 방법인 첫 번째 과제에서 하이퍼파라미터를 최적화하고 이후 고정하는 방법을 추천한다.
Citat
"In continual learning (CL)—where a learner trains on a stream of data—standard hyperparameter optimisation (HPO) cannot be applied, as a learner does not have access to all of the data at the same time."
"Hence, there is an open question: what HPO framework should a practitioner use for a CL problem in reality?"