Dieser Artikel präsentiert PolySketchFormer, eine praktische lineare Transformer-Architektur für Sprachmodellierung, die provable Garantien bietet. Durch die Verwendung von Polynomkerneln hohen Grades und effizienten Skizzierungstechniken aus der numerischen linearen Algebra kann PolySketchFormer die Trainingslatenz im Vergleich zu herkömmlichen Transformer-Modellen deutlich reduzieren, ohne Qualitätseinbußen zu verzeichnen.
Transformer-Modelle können lernen, Rechenleistung dynamisch und kontextabhängig über die Eingabesequenz und Modelltiefe zuzuweisen, um die Gesamtrechenleistung zu reduzieren, ohne die Leistung zu beeinträchtigen.