核心概念
시계열 예측에서 Transformer 기반 방법은 위치 인코딩(PE)에 의존하지만, PE에 대한 연구가 부족했다. 이 연구는 PE의 세 가지 흥미로운 특성을 발견했고, 이를 바탕으로 새로운 PE 기법인 T-PE와 V-PE를 제안했다. 또한 이 두 PE를 활용하는 Transformer 기반 이중 분기 프레임워크 T2B-PE를 개발했다.
要約
이 연구는 시계열 예측에서 Transformer 기반 방법의 위치 인코딩(PE)에 대해 탐구했다. 주요 발견은 다음과 같다:
- 네트워크 깊이가 증가함에 따라 PE에 의해 주입된 위치 정보가 감소한다.
- 깊은 네트워크에서 위치 정보를 강화하는 것이 모델 성능 향상에 유리하다.
- 토큰 간 유사성에 기반한 PE가 모델 성능을 향상시킬 수 있다.
이러한 발견을 바탕으로, 연구진은 시간 토큰용 T-PE와 변수 토큰용 V-PE라는 두 가지 새로운 PE를 제안했다. T-PE는 기하학적 PE와 의미론적 PE로 구성되며, V-PE는 시계열 합성곱 PE와 의미론적 PE로 구성된다. 이 두 PE를 활용하기 위해 Transformer 기반 이중 분기 프레임워크 T2B-PE를 개발했다. T2B-PE는 시간 토큰과 변수 토큰의 상관관계를 각각 처리한 후 게이트 유닛을 통해 결과를 융합한다. 실험 결과, T2B-PE가 강력한 견고성과 효과성을 보였다.
統計
시간 토큰의 위치 정보가 네트워크 깊이가 증가함에 따라 감소한다.
깊은 네트워크에서 위치 정보를 강화하면 모델 성능이 향상된다.
토큰 간 유사성에 기반한 의미론적 PE도 모델 성능을 향상시킬 수 있다.
引用
"시간 토큰의 위치 정보가 네트워크 깊이가 증가함에 따라 감소한다."
"깊은 네트워크에서 위치 정보를 강화하면 모델 성능이 향상된다."
"토큰 간 유사성에 기반한 의미론적 PE도 모델 성능을 향상시킬 수 있다."