Core Concepts
지속적 학습은 새로운 데이터를 지속적으로 학습하면서도 이전에 학습한 내용을 잊지 않는 기술이다. 이는 다양한 실제 문제에서 필수적인 요소이며, 이를 해결하기 위한 새로운 연구 방향이 필요하다.
Abstract
이 논문은 지속적 학습의 현재 상황과 향후 과제를 다룬다.
먼저, 최근 주요 기계 학습 학회에 발표된 지속적 학습 논문들을 분석하여 현재 연구 경향을 파악한다. 대부분의 논문들이 메모리 제약 환경에 초점을 맞추고 있으며, 계산 비용에 대한 고려는 부족한 것으로 나타났다.
이어서 5가지 실제 문제 상황(모델 편집, 개인화 및 전문화, 온디바이스 학습, 빠른 재학습, 강화 학습)을 소개하고, 이들이 지속적 학습을 필수적으로 요구한다는 점을 설명한다. 각 문제에서 제약 조건과 최적화해야 할 지표가 무엇인지 제시한다.
마지막으로, 이러한 문제들을 고려하여 4가지 미래 연구 방향을 제안한다: 1) 메모리와 계산 비용 가정 재검토, 2) 이론적 이해 증진, 3) 대규모 지속적 학습, 4) 실제 환경에서의 지속적 학습.
Stats
지속적 학습 연구에서 대부분의 논문이 저장되는 데이터의 양을 1% 미만으로 제한하고 있다.
계산 비용에 대해서는 절반 이상의 논문에서 전혀 다루지 않고 있다.
Quotes
"Deep learning models in particular are in need of continual learning capabilities."
"The goal of continual learning is to find approaches that have a better trade-off between performance and efficiency (e.g. compute and memory) than these two naive ones."