Der Artikel stellt ein neuartiges Modell, den mehrstufigen Zeitreihen-Transformer (MTST), für langfristige Zeitreihenvorhersagen vor. MTST besteht aus einer mehrarmigen Architektur, die es ermöglicht, Zeitreihenmuster auf verschiedenen Skalen gleichzeitig zu modellieren.
Im Gegensatz zu bisherigen Zeitreihen-Transformern, die Zeitstempel als Token verwenden, verwendet MTST Patches (Fenster mehrerer Zeitschritte) als Token. Jeder Zweig des MTST-Modells verwendet Patches mit unterschiedlicher Größe, um Muster auf verschiedenen Zeitskalen zu erfassen. Darüber hinaus verwendet MTST eine relative Positionscodierung, die besser geeignet ist, periodische Komponenten auf unterschiedlichen Skalen zu extrahieren.
Die umfangreichen Experimente auf sieben Benchmark-Datensätzen zeigen, dass MTST die bisher besten Zeitreihen-Transformer-Modelle deutlich übertrifft. Die Visualisierungen der Vorhersagen aus den einzelnen Zweigen belegen, dass MTST in der Lage ist, Muster auf verschiedenen Zeitskalen effektiv zu modellieren.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yitian Zhang... at arxiv.org 03-25-2024
https://arxiv.org/pdf/2311.04147.pdfDeeper Inquiries