Core Concepts
Reduzierung redundanter Informationen zur Steigerung der Prognosegenauigkeit und Effizienz.
Abstract
Abstract:
Transformer-Modelle in der multivariaten Zeitreihenprognose
Herausforderungen durch komplexe Datensätze
Vorschlag eines PCA-verstärkten Prognoserahmens
Einleitung:
Bedeutung der Sequenzmodellierung
Herausforderungen von Standard-RNNs
Vorteile der Transformer-Architektur
Verwandte Arbeit:
Klassifizierung von Transformer-Modellen
Vorstellung verschiedener Transformer-Modelle
PCA:
Bedeutung der PCA für die Dimensionsreduktion
Anwendung von PCA in der Zeitreihenprognose
Experimente:
Datensätze und experimentelle Formulierung
Konstruktion des Prognoserahmens
Ergebnisse:
Verbesserungen durch PCA-verstärkte Modelle
Auswirkungen auf MSE und Laufzeit
Schlussfolgerung und zukünftige Arbeiten:
Potenzial der PCA in der Dimensionsreduktion
Ausblick auf zukünftige Forschung
Stats
Die PCA+Crossformer-Modelle reduzieren den mittleren quadratischen Fehler (MSE) um 33,3% und die Laufzeit um 49,2% im Durchschnitt.
Der PCA+Crossformer-Framework liefert eine Reduzierung des MSE um 14,3% und der Laufzeit um 76,6% bei den Elektrizitätsdatensätzen.
Die PCA+Crossformer-Modelle erreichen eine Reduzierung des MSE um 4,8% und der Laufzeit um 86,9% bei den Verkehrsdatensätzen.
Quotes
"Die Ergebnisse betonen die signifikanten Verbesserungen, die durch das PCA-verstärkte Transformer-Prognosemodell in allen Kontexten erzielt wurden."
"Die gesamte Studie betont das erhebliche Potenzial von Dimensionsreduktionsalgorithmen hinsichtlich der Effektivität und Effizienz von transformerbasierten Prognosemodellen."