Effiziente Anpassung von Large Language Models (LLMs) für die Codegenerierung durch SEED.
ReFT-Methoden passen Sprachmodelle durch das Lernen von Interventionen auf eingefrorene Repräsentationen an, anstatt Modellgewichte zu ändern. Dies ermöglicht eine deutlich effizientere Anpassung als bisherige parametersparsame Feinabstimmungsmethoden (PEFTs).