Core Concepts
Transformer-basierte Auto-Attention-Mechanismen werden erfolgreich auf die Analyse von Sequenzen von SPD-Matrizen angewendet, um die Riemannsche Geometrie zu bewahren.
Abstract
Einführung in Transformer und SPD-Matrizen
Struktur-erhaltende Multihead-Attention
Anwendung auf EEG-Schlafstadien
Verbesserung der stadienweisen Klassifizierung
SPDTransNet-Modell und Ergebnisse
Schlussfolgerungen und zukünftige Anwendungen
Stats
"SPDTransNet, L = 13: 81.06 ± 3.49 MF1"
"SPDTransNet, L = 21: 81.24 ± 3.29 MF1"
"SPDTransNet, L = 29: 80.83 ± 3.40 N1 F1"
"Classic MHA: 80.82 ± 3.40 MF1"
"DeepSleepNet: 78.14 ± 4.12 MF1"
Quotes
"Unsere Methode erzielt hohe Leistungen in der stadienweisen Klassifizierung."
"SPDTransNet übertrifft alle getesteten State-of-the-Art-Modelle."