Core Concepts
Durch Proxy-Feinabstimmung können große Sprachmodelle effizient an spezifische Anwendungsfälle angepasst werden, ohne direkt auf die internen Modellparameter zuzugreifen.
Abstract
Die Studie stellt eine Methode namens "Proxy-Feinabstimmung" vor, mit der große Sprachmodelle effizient an bestimmte Verhaltensweisen angepasst werden können, ohne direkt auf die internen Modellparameter zuzugreifen.
Stattdessen wird ein kleineres, bereits feinabgestimmtes Modell als "Experte" verwendet, um die Vorhersagen des großen Basismodells in die gewünschte Richtung zu lenken. Dazu wird der Unterschied zwischen den Vorhersagen des feinabgestimmten "Experten" und des untrainierten "Anti-Experten" auf die Vorhersagen des Basismodells angewendet.
Die Experimente zeigen, dass diese Proxy-Feinabstimmung die Leistung großer Sprachmodelle auf verschiedenen Benchmarks deutlich verbessern kann, ohne deren interne Parameter zu ändern. Dabei kann die Proxy-Feinabstimmung sogar die Leistung der direkt feinabgestimmten Modelle übertreffen, da sie das zugrunde liegende Wissen des Basismodells besser erhält.
Die Methode wird auch auf die Anpassung an Programmiercode, spezifische Aufgaben wie Frage-Antwort und mathematische Textaufgaben sowie die Aktualisierung des Wissens eines proprietären Modells wie GPT-3.5 angewendet.
Stats
Die Ducks von Janet legen 16 Eier pro Tag.
Janet isst 3 Eier zum Frühstück und backt 4 Eier für Muffins für ihre Freunde.
Janet verkauft den Rest auf dem Bauernmarkt für $2 pro frisches Enterei.
Quotes
"Proxy-Feinabstimmung zeigt das Potenzial, kleine feinabgestimmte Modelle zur effizienten und effektiven Anpassung großer, möglicherweise proprietärer Sprachmodelle durch Dekodierzeit-Steuerung zu nutzen."