Diese Studie untersucht das Verhalten sprachspezifischer Neuronen in Decoder-basierten vortrainierten Sprachmodellen. Konkret werden mehrere Decoder-basierte vortrainierte Sprachmodelle, darunter XGLM, BLOOM und Llama2, für sechs Sprachen (Englisch, Deutsch, Französisch, Spanisch, Chinesisch und Japanisch) analysiert.
Um sprachspezifische Neuronen zu identifizieren, wird ein Ansatz verwendet, der Neuronen findet, die auf eine bestimmte Gruppe von Sätzen (Positivsätze) aktivieren, aber nicht auf andere Gruppen (Negativsätze). Dabei werden die Zielsprachentexte als positiv und alle anderen Sprachen als negativ behandelt.
Die Ergebnisse zeigen, dass die identifizierten sprachspezifischen Neuronen hauptsächlich in den ersten und letzten Schichten des Modells verteilt sind. Dieser Trend bleibt über mehrere Sprachen und Modellvarianten hinweg konsistent. Um die Wirkung der Neuronen zu überprüfen, greifen wir während der Inferenz in die sprachspezifischen Neuronen ein und zeigen, dass sie die Wahrscheinlichkeit des Auftretens der Zielsprache bei der Textgenerierung drastisch verändern können.
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Takeshi Koji... om arxiv.org 04-04-2024
https://arxiv.org/pdf/2404.02431.pdfDiepere vragen