Core Concepts
시계열 패치를 독립적으로 임베딩하는 것이 시계열 표현 학습에 더 우수하다.
Abstract
최근 마스크된 시계열 모델링(MTM)이 자기지도 학습 전략으로 주목받고 있다.
이는 이미지 모델링에서 영감을 받아 시계열을 패치화하고 일부를 마스킹한 뒤, 마스크된 패치를 예측하도록 Transformer를 학습시키는 것이다.
그러나 저자들은 패치 간 의존성을 학습하는 것이 최적의 전략이 아니라고 주장한다. 대신 각 패치를 독립적으로 임베딩하는 것이 더 나은 시계열 표현을 얻을 수 있다고 제안한다.
구체적으로 저자들은 1) 다른 패치를 보지 않고 각 패치를 자동인코딩하는 단순 패치 재구성 과제와 2) 각 패치를 독립적으로 임베딩하는 단순 패치 MLP 모델을 제안한다.
또한 인접 시계열 정보를 효율적으로 포착하기 위해 상보적 대조 학습을 도입한다.
제안 방법은 기존 Transformer 기반 모델보다 우수한 시계열 예측 및 분류 성능을 보이며, 파라미터 수와 학습/추론 시간 측면에서도 더 효율적이다.
Stats
마스크된 부분을 예측하는 기존 방식보다 마스크되지 않은 부분을 재구성하는 제안 방식이 분포 변화에 더 강건하다.
제안 방식의 MLP 아키텍처가 Transformer 아키텍처보다 더 해석 가능하고 패치 크기에 대해 더 robust하다.
Quotes
"시계열 패치를 독립적으로 임베딩하는 것이 시계열 표현 학습에 더 우수하다."
"마스크된 부분을 예측하는 기존 방식보다 마스크되지 않은 부분을 재구성하는 제안 방식이 분포 변화에 더 강건하다."
"제안 방식의 MLP 아키텍처가 Transformer 아키텍처보다 더 해석 가능하고 패치 크기에 대해 더 robust하다."