Durch den Einsatz von gewichteter Quasi-Monte-Carlo-Methoden und Diskrete-Kosinus-Transformation (DCT) können wir die Aufmerksamkeitsmechanismen von Transformern effizient in den Frequenzbereich überführen und so deren Komplexität von quadratisch auf linear reduzieren, ohne dabei die Leistung zu beeinträchtigen.
Prompting ist ein wichtiger Ansatz, um große Sprachmodelle für spezifische Aufgaben anzupassen. Da die Prompts jedoch immer länger und komplexer werden, entstehen zusätzliche Herausforderungen in Bezug auf Rechenleistung und Ressourcenverbrauch. Dieser Artikel bietet einen umfassenden Überblick über effiziente Prompting-Methoden, die diese Probleme angehen.