Riya Mahesh, Rahul Vashisht, and Chandrashekar Lakshminarayanan. 2024. Transformers with Sparse Attention for Granger Causality. In 8th International Confernce on Data Science and Management of Data (12th ACM IKDD CODS and 30th COMAD) (CODS-COMAD Dec ’24), December 18–21, 2024, Jodhpur, India. ACM, New York, NY, USA, 5 pages. https://doi.org/10.1145/3703323.3703335
本研究旨在解決時間序列數據中存在隨機延遲效應時,如何有效地識別變量之間的格蘭傑因果關係。
本文提出了一種名為稀疏注意力 Transformer (SAT) 的新模型,該模型結合了 Transformer 的自注意力機制和格蘭傑因果關係檢驗方法。
實驗結果表明,在具有隨機延遲效應的合成數據集上,SAT 模型在識別變量間因果關係方面,相較於傳統的基於向量自回歸 (VAR) 的格蘭傑因果關係方法,具有更高的準確率和 F1 分數。
SAT 模型能夠有效地解決時間序列數據中存在隨機延遲效應時,格蘭傑因果關係識別的難題,為時間序列因果關係分析提供了一種新的思路。
本研究提出的 SAT 模型對於分析具有複雜時間動態特徵的真實世界數據集(例如氣候數據、經濟數據等)具有重要意義。
本研究主要關注線性且時間齊次的數據集,未來可以進一步研究如何將 SAT 模型擴展到非線性和非平穩時間序列數據。此外,還可以探討多頭注意力機制權重與因果關係係數之間的具體數學關係。
翻譯成其他語言
從原文內容
arxiv.org
深入探究