Core Concepts
複数の解像度を持つ時系列トランスフォーマーが長期予測に優れていることを示す。
Abstract
トランスフォーマーの性能向上により、複雑な時間パターンを学習するための新しいフレームワークであるMulti-resolution Time-Series Transformer(MTST)が提案された。
MTSTは、異なる解像度で異なる時間パターンを同時にモデル化するためのマルチブランチアーキテクチャを採用しており、相対的位置エンコーディングも使用している。
実験結果では、MTSTが他の最先端技術と比較して効果的であり、28個中28個のテスト設定で最低二乗誤差が最も低かった。
Stats
最先端技術と比較してMTSTが28個中28個のテスト設定で最低二乗誤差が最も低かったことが示されています。
Quotes
"Recent architectures learn complex temporal patterns by segmenting a time-series into patches and using the patches as tokens."
"Extensive experiments on several real-world datasets demonstrate the effectiveness of MTST in comparison to state-of-the-art forecasting techniques."