Core Concepts
테스트 시간 학습(TTT) 모듈을 활용하여 기존 최신 모델들을 능가하는 장기 시계열 예측 성능 달성
Abstract
이 연구는 시계열 예측 분야에서 새로운 기준을 제시합니다. 기존 최신 모델인 TimeMachine 모델의 Mamba 모듈을 TTT 모듈로 대체하여 성능을 향상시켰습니다.
- 다양한 벤치마크 데이터셋에서 TTT 기반 모델이 기존 모델들을 일관되게 능가하는 성과를 보였습니다. 특히 더 긴 시퀀스와 예측 길이에서 두드러진 성능 향상이 관찰되었습니다.
- 더 큰 데이터셋인 Electricity, Traffic, Weather 등에서 TTT 모델이 우수한 성과를 보였습니다. 이는 TTT 모듈이 장기 의존성을 효과적으로 포착할 수 있음을 보여줍니다.
- 다양한 합성곱 신경망 아키텍처를 실험한 결과, Conv Stack 5가 가장 좋은 성능을 보였지만 단순한 Conv 3도 경쟁력 있는 결과를 보였습니다. 이는 복잡성보다는 적절한 아키텍처 설계가 중요함을 시사합니다.
- 시퀀스 길이와 예측 길이를 크게 늘린 실험에서도 TTT 모델이 기존 모델을 능가하는 성과를 보였습니다. 이는 TTT 모듈이 장기 의존성을 효과적으로 포착할 수 있음을 입증합니다.
Stats
예측 길이 720에서 TTT 모델의 MSE는 0.517, TimeMachine 모델의 MSE는 0.535로 TTT 모델이 더 낮은 오차를 보였습니다.
시퀀스 길이 5760, 예측 길이 720에서 TTT 모델의 MSE는 0.509, TimeMachine 모델의 MSE는 0.546으로 TTT 모델이 더 낮은 오차를 보였습니다.
Quotes
"TTT 모듈은 이론적으로 무한대의 문맥 창을 가질 수 있어 장기 의존성을 효과적으로 포착할 수 있습니다."
"TTT 모델은 기존 최신 모델들을 일관되게 능가하는 성과를 보였습니다."