Der Artikel stellt einen neuen Ansatz namens Lottery Ticket Prompt-Learning (LTP) vor, um kleine Sprachmodelle für mehrsprachige Aufgaben effizient zu promoten.
Der Kernpunkt ist, dass LTP Gewinnertickets mit Soft Prompts kombiniert. Zunächst wird eine Teilmenge der aktivsten Parameter des Sprachmodells identifiziert, indem es auf Englisch feinabgestimmt wird. Dann werden diese ausgewählten Parameter zusammen mit den Prompt-bezogenen Parametern beim Feinabstimmen auf Zielaufgaben aktualisiert, während der Rest des Modells eingefroren bleibt.
LTP bietet eine einfachere Implementierung als bisherige Ansätze und erfordert nur eine einmalige Ausführung. Die Experimente zeigen, dass LTP die Baselines deutlich übertrifft, indem es nur 20% der ursprünglichen Parameter aktualisiert. Insbesondere profitieren ressourcenarme Sprachen, die vom Sprachmodell nicht gesehen wurden, von diesem Ansatz. Die Autoren analysieren auch, dass die mittleren Schichten des Modells die ausdrucksstärksten Parameter enthalten und daher die Zahl der zu trainierenden Parameter weiter reduziert werden kann.
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Mingqi Li,Fe... kl. arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.01242.pdfDybere Forespørgsler