Effizientes Lernen von übertragbaren Zeitreihenklassifikatoren durch domänenübergreifende Vortrainung aus Sprachmodellen
Ein neuartiges Rahmenwerk für domänenübergreifende selbstüberwachte Vortrainung von Zeitreihenrepräsentationen, das eine effiziente Tokenisierung von Zeitreihen und die Verwendung von Sprachmodellen als Encodernetzwerke nutzt, um übertragbare Repräsentationen zu lernen.