Core Concepts
ReFT-Methoden passen Sprachmodelle durch das Lernen von Interventionen auf eingefrorene Repräsentationen an, anstatt Modellgewichte zu ändern. Dies ermöglicht eine deutlich effizientere Anpassung als bisherige parametersparsame Feinabstimmungsmethoden (PEFTs).
Abstract
Die Studie präsentiert ReFT, eine neue Methode zur effizienten Anpassung von Sprachmodellen. Anstatt Modellgewichte anzupassen, wie es bisherige parametersparsame Feinabstimmungsmethoden (PEFTs) tun, lernen ReFT-Methoden Interventionen, die eingefrorene Repräsentationen des Modells manipulieren.
Eine konkrete Instanz der ReFT-Familie ist LoReFT, das Repräsentationen in einem niedrigdimensionalen linearen Unterraum anpasst. LoReFT ist bis zu 50-mal parametersparender als der bisherige Stand der Technik bei PEFTs, erreicht aber gleichwertige oder sogar bessere Leistung auf einer Vielzahl von Benchmarks aus den Bereichen Alltagsverständnis, arithmetisches Schlussfolgern, Instruktionsverständnis und allgemeines Sprachverständnis.
Die Studie zeigt, dass ReFT-Methoden eine vielversprechende Alternative zu gewichtsbasierten PEFTs darstellen können. Die Autoren veröffentlichen auch eine generische ReFT-Trainingsbibliothek, um die Erforschung dieser Methoden zu erleichtern.
Stats
"ReFT-Methoden verwenden 10×–50× weniger Parameter als der bisherige Stand der Technik bei PEFTs."
"LoReFT erreicht auf allen evaluierten Benchmarks eine wettbewerbsfähige oder sogar bessere Leistung als andere Methoden."
Quotes
"ReFT-Methoden passen Sprachmodelle durch das Lernen von Interventionen auf eingefrorene Repräsentationen an, anstatt Modellgewichte zu ändern."
"LoReFT ist bis zu 50-mal parametersparender als der bisherige Stand der Technik bei PEFTs, erreicht aber gleichwertige oder sogar bessere Leistung auf einer Vielzahl von Benchmarks."