본 연구는 대형 언어 모델(LLM)을 시계열 표현 학습에 적용하기 위한 aLLM4TS 프레임워크를 제안한다.
첫 번째 단계에서는 인과적 지속 사전 학습을 수행하여 LLM의 능력을 시계열 데이터의 특성과 동기화한다. 다음 패치 예측 작업을 통해 LLM의 시퀀스 모델링 능력을 시계열 데이터의 복잡성과 효과적으로 연결한다.
두 번째 단계에서는 대상 시계열 환경에서 다중 패치 예측 작업으로 fine-tuning한다. 기존 방식과 달리, 본 연구는 패치 단위 디코더를 제안하여 시계열 표현 학습의 적응성을 크게 향상시킨다. 이를 통해 개별 패치를 독립적으로 시간 영역으로 디코딩할 수 있어, 입력/출력 길이에 구애받지 않는 유연성을 제공한다.
실험 결과, aLLM4TS는 다양한 시계열 분석 작업에서 SOTA 성능을 달성하며, 시계열 표현의 탁월한 전이성을 입증한다. 이는 LLM의 시계열 분석 적용을 위한 중요한 진전을 의미한다.
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Yuxuan Bian,... : arxiv.org 03-12-2024
https://arxiv.org/pdf/2402.04852.pdfDaha Derin Sorular