Kernkonzepte
Sprachmodelle können durch selektives Beschneiden von Neuronen spezifische Fähigkeiten vergessen, was auf eine Spezialisierung bestimmter Neuronen hinweist.
Zusammenfassung
Das Papier untersucht die Bedeutung von Large Language Models (LLMs) und stellt eine Methode vor, um gezielt Neuronen zu entfernen, um spezifische Fähigkeiten zu vergessen. Es wird eine selektive Beschneidungsmethode für LLMs eingeführt, die auf der relativen Bedeutung von Neuronen basiert. Die Ergebnisse zeigen, dass bestimmte Neuronen in LLMs spezialisiert sind und ihre Entfernung die Leistung auf vergessenen Datensätzen dramatisch verringert, während die Leistung auf behaltenen Datensätzen kaum beeinträchtigt wird.
1. Einführung
LLMs haben beeindruckende Leistungen in verschiedenen Fähigkeiten gezeigt.
Risiken durch weit verbreiteten Zugang zu leistungsstarken Modellen werden diskutiert.
Sensible Benutzerdaten in Datensätzen könnten entfernt werden.
2. Verwandte Arbeit
Maschinelles Vergessen zielt darauf ab, Informationen zu entfernen, ohne das gesamte Modell neu zu trainieren.
Unterschiedliche Methoden des maschinellen Vergessens werden diskutiert.
3. Selektives Beschneiden
Eine Methode wird vorgestellt, um strukturiertes Beschneiden an Transformer-Modellen durchzuführen.
Unterschiede zwischen Feed-Forward- und Aufmerksamkeitsneuronen werden untersucht.
4. Modelle und Aufgaben
Technische Details zu den verwendeten Modellen und Datensätzen werden bereitgestellt.
Die Auswirkungen des selektiven Beschneidens auf die Modellleistung werden bewertet.
Statistiken
Unsere Methode ist effektiv, da sie die Differenz im Genauigkeitsabfall zwischen vergessenen und behaltenen Datensätzen misst.
Pruning von Feed-Forward-Neuronen ist selektiver als das Pruning von Aufmerksamkeitsneuronen.
Zitate
"Unsere Methode ist effektiv, da sie die Differenz im Genauigkeitsabfall zwischen vergessenen und behaltenen Datensätzen misst."