Core Concepts
LLAMAFACTORY ist ein einheitlicher Rahmen, der eine Reihe von hochmodernen effizienten Trainingsmethoden integriert, um die Anpassung großer Sprachmodelle an verschiedene Aufgaben zu erleichtern.
Abstract
LLAMAFACTORY ist ein Framework, das das effiziente Finetuning von über 100 großen Sprachmodellen (LLMs) ermöglicht. Es besteht aus drei Hauptmodulen: Model Loader, Data Worker und Trainer.
Der Model Loader bereitet verschiedene Modellarchitekturen für das Finetuning vor, indem er Initialisierung, Patches, Quantisierung und Adapter-Anbindung verwaltet. Er unterstützt über 100 LLMs und passt die Gleitkommagenauigkeit an die Fähigkeiten der Geräte an.
Der Data Worker verarbeitet Daten aus verschiedenen Aufgaben durch eine gut konzipierte Pipeline, die über 50 Datensätze unterstützt. Er standardisiert die Datensätze in ein einheitliches Format, um das Finetuning auf verschiedenen Aufgaben zu ermöglichen.
Der Trainer vereinheitlicht effiziente Finetuning-Methoden wie LoRA, GaLore und Quantisierung, um die Modelle an verschiedene Aufgaben und Datensätze anzupassen. Er bietet vier Trainingsansätze: Generatives Vortraining, überwachtes Finetuning, Verstärkungslernen mit menschlicher Rückmeldung und direkte Präferenzoptimierung.
Darüber hinaus bietet LLAMABOARD eine benutzerfreundliche webbasierte Oberfläche, mit der Benutzer das Finetuning von LLMs ohne Programmierkenntnisse anpassen und überwachen können.
Die Effizienz und Wirksamkeit des Frameworks wurde empirisch auf Sprachmodellierungs- und Textgenerierungsaufgaben validiert. LLAMAFACTORY ist unter der Apache-2.0-Lizenz quelloffen und hat bereits über 13.000 Sterne und 1.600 Forks auf GitHub erhalten.
Stats
Das Spitzenspeicherverbrauch beim Finetuning von Llama2-13B mit Volltuning führte zu einem Speicherüberlauf.
QLoRA wies den niedrigsten Speicherverbrauch auf, da die vortrainierten Gewichte in geringerer Genauigkeit dargestellt werden.
LoRA erzielte eine höhere Durchsatzrate, indem es die Optimierung in den LoRA-Schichten durch Unsloth nutzte.
GaLore erreichte eine niedrigere Perplexität bei großen Modellen, während LoRA bei kleineren Modellen Vorteile hatte.
Quotes
"LLAMAFACTORY ist ein einheitlicher Rahmen, der eine Reihe von hochmodernen effizienten Trainingsmethoden integriert, um die Anpassung großer Sprachmodelle an verschiedene Aufgaben zu erleichtern."
"LLAMAFACTORY ist quelloffen unter der Apache-2.0-Lizenz und hat bereits über 13.000 Sterne und 1.600 Forks auf GitHub erhalten."