Core Concepts
대규모 시계열 데이터로 사전 학습된 단일 기반 모델이 다양한 도메인의 시계열 데이터에 대해 우수한 제로샷 예측 성능을 보여준다.
Abstract
이 논문은 시계열 예측을 위한 범용 제로샷 기반 모델 TimesFM을 제안한다. TimesFM은 다양한 실제 및 합성 시계열 데이터 (약 1000억 개의 데이터 포인트)로 사전 학습되었으며, 기존 최첨단 감독 모델과 유사한 수준의 제로샷 예측 성능을 보여준다.
주요 내용은 다음과 같다:
시계열 데이터의 패치 인코딩, 디코더 전용 구조, 가변 입력/출력 길이 등의 모델 설계 기법을 제안
구글 트렌드, 위키피디아 페이지뷰, 합성 데이터 등 다양한 소스의 대규모 시계열 데이터로 모델 사전 학습
Monash, Darts, Informer 벤치마크 데이터셋에서 제로샷 평가 시 기존 최첨단 모델과 유사 또는 우수한 성능 달성
모델 크기, 입력 패치 길이, 합성 데이터 활용 등에 대한 상세한 실험적 분석 제공
이를 통해 대규모 사전 학습된 단일 기반 모델이 다양한 시계열 예측 문제에 효과적으로 활용될 수 있음을 보여준다.
Stats
시계열 데이터셋의 총 데이터 포인트 수는 약 1000억 개이다.
실제 데이터셋에는 구글 트렌드 데이터 약 50억 개, 위키피디아 페이지뷰 데이터 약 300억 개가 포함된다.
합성 데이터셋에는 약 30억 개의 시계열 데이터가 포함된다.
Quotes
"Can large pretrained models trained on massive amounts of time-series data learn temporal patterns that can be useful for time-series forecasting on previously unseen datasets?"
"Unlike in NLP, there is no well defined vocabulary or grammar for time-series. Additionally, such a model would need to support forecasting with varying history lengths (context) , prediction lengths (horizon) and time granularities."