Robuste Latenzräume durch Tokenisierung und Transformatoren: Generalisierbarkeit bei Sensorausfall
Tokenisierung und Transformatoren ermöglichen robustere Latenzräume, die Generalisierbarkeit über Sitzungen, Probanden und Sensorausfälle hinweg verbessern.