Diese Studie untersucht das Verhalten sprachspezifischer Neuronen in Decoder-basierten vortrainierten Sprachmodellen. Konkret werden mehrere Decoder-basierte vortrainierte Sprachmodelle, darunter XGLM, BLOOM und Llama2, für sechs Sprachen (Englisch, Deutsch, Französisch, Spanisch, Chinesisch und Japanisch) analysiert.
Um sprachspezifische Neuronen zu identifizieren, wird ein Ansatz verwendet, der Neuronen findet, die auf eine bestimmte Gruppe von Sätzen (Positivsätze) aktivieren, aber nicht auf andere Gruppen (Negativsätze). Dabei werden die Zielsprachentexte als positiv und alle anderen Sprachen als negativ behandelt.
Die Ergebnisse zeigen, dass die identifizierten sprachspezifischen Neuronen hauptsächlich in den ersten und letzten Schichten des Modells verteilt sind. Dieser Trend bleibt über mehrere Sprachen und Modellvarianten hinweg konsistent. Um die Wirkung der Neuronen zu überprüfen, greifen wir während der Inferenz in die sprachspezifischen Neuronen ein und zeigen, dass sie die Wahrscheinlichkeit des Auftretens der Zielsprache bei der Textgenerierung drastisch verändern können.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Takeshi Koji... klokken arxiv.org 04-04-2024
https://arxiv.org/pdf/2404.02431.pdfDypere Spørsmål