LLAMAFACTORY ist ein einheitlicher Rahmen, der eine Reihe von hochmodernen effizienten Trainingsmethoden integriert, um die Anpassung großer Sprachmodelle an verschiedene Aufgaben zu erleichtern.
Eine effiziente Methode zur Analyse und Kombination von Feinabstimmungsdaten für Großsprachmodelle, die eine hohe Qualität und Diversität der Daten gewährleistet.
Eine automatisierte Datenkurationspipeline namens CLEAR kann die Leistung von Sprachmodellen durch Filterung und Korrektur von Trainingsdaten deutlich verbessern, ohne dass zusätzliche Feinabstimmungsberechnungen erforderlich sind.
Eine einfache und effektive Lernmethode namens "Majority or Minority" (MoM) Learning, die den Verlust, der nur für Proben berechnet wird, deren Grundwahrheit die Mehrheitsklasse ist, in den Verlust des herkömmlichen ML-Modells einbezieht, um die Vorhersageleistung der Minderheitsklassen zu verbessern, ohne die Leistung der Mehrheitsklasse zu beeinträchtigen.
Ein neuartiges Framework namens OpenChat, das eine Methode namens Conditioned-RLFT verwendet, um Open-Source-Sprachmodelle mit gemischter Datenqualität effizient zu verbessern.
OmniQuant ist eine differenzierbare Quantisierungstechnik für große Sprachmodelle, die eine überlegene Leistung in verschiedenen Quantisierungskonfigurationen bei gleichzeitiger Beibehaltung der Effizienz von Post-Training-Quantisierung (PTQ) erreicht.
Kontextbasiertes Lernen kann als induktiver Bias dienen, um die kompositionelle Generalisierung neuronaler Sprachmodelle zu verbessern.
Durch die gezielte Anpassung einzelner Neuronen innerhalb von Großsprachmodellen kann deren Leistung auf spezifischen Aufgaben deutlich verbessert werden, ohne die Gesamtarchitektur stark zu verändern.
TRELM, ein robuster und effizienter Vorverarbeitungsrahmen für wissensbasierte Sprachmodelle, nutzt eine wissensangereicherte Speicherbank und dynamisches Wissensrouting, um die Leistung und Effizienz von Sprachmodellen zu verbessern.
Dieser Artikel stellt eine neuartige Methode zur Erkennung und Verringerung von Geschlechtsvorurteilen in Sprachmodellen vor. Durch eine kausale Analyse werden die Modellkomponenten identifiziert, die am anfälligsten für die Übertragung von Vorurteilen sind. Basierend auf diesen Erkenntnissen wird das Modell durch gezielte Anpassung der Gewichte in diesen Komponenten entzerrt, ohne die Leistung in Downstream-Aufgaben wesentlich zu beeinträchtigen.