본 연구는 대형 언어 모델(LLM)을 시계열 표현 학습에 적용하기 위한 aLLM4TS 프레임워크를 제안한다.
첫 번째 단계에서는 인과적 지속 사전 학습을 수행하여 LLM의 능력을 시계열 데이터의 특성과 동기화한다. 다음 패치 예측 작업을 통해 LLM의 시퀀스 모델링 능력을 시계열 데이터의 복잡성과 효과적으로 연결한다.
두 번째 단계에서는 대상 시계열 환경에서 다중 패치 예측 작업으로 fine-tuning한다. 기존 방식과 달리, 본 연구는 패치 단위 디코더를 제안하여 시계열 표현 학습의 적응성을 크게 향상시킨다. 이를 통해 개별 패치를 독립적으로 시간 영역으로 디코딩할 수 있어, 입력/출력 길이에 구애받지 않는 유연성을 제공한다.
실험 결과, aLLM4TS는 다양한 시계열 분석 작업에서 SOTA 성능을 달성하며, 시계열 표현의 탁월한 전이성을 입증한다. 이는 LLM의 시계열 분석 적용을 위한 중요한 진전을 의미한다.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Yuxuan Bian,... a las arxiv.org 03-12-2024
https://arxiv.org/pdf/2402.04852.pdfConsultas más profundas