核心概念
Decoder-basierte vortrainierte Sprachmodelle zeigen zwar hervorragende mehrsprachige Fähigkeiten, aber es ist unklar, wie sie Mehrsprachigkeit handhaben. Diese Studie analysiert das neuronale Verhalten von Decoder-basierten mehrsprachigen vortrainierten Sprachmodellen und zeigt, dass es einzigartige, sprachspezifische Neuronen gibt, die hauptsächlich in den ersten und letzten Schichten des Modells verteilt sind. Durch Eingriffe in diese Neuronen kann die Wahrscheinlichkeit des Auftretens der Zielsprache bei der Textgenerierung drastisch verändert werden.
摘要
Diese Studie untersucht das Verhalten sprachspezifischer Neuronen in Decoder-basierten vortrainierten Sprachmodellen. Konkret werden mehrere Decoder-basierte vortrainierte Sprachmodelle, darunter XGLM, BLOOM und Llama2, für sechs Sprachen (Englisch, Deutsch, Französisch, Spanisch, Chinesisch und Japanisch) analysiert.
Um sprachspezifische Neuronen zu identifizieren, wird ein Ansatz verwendet, der Neuronen findet, die auf eine bestimmte Gruppe von Sätzen (Positivsätze) aktivieren, aber nicht auf andere Gruppen (Negativsätze). Dabei werden die Zielsprachentexte als positiv und alle anderen Sprachen als negativ behandelt.
Die Ergebnisse zeigen, dass die identifizierten sprachspezifischen Neuronen hauptsächlich in den ersten und letzten Schichten des Modells verteilt sind. Dieser Trend bleibt über mehrere Sprachen und Modellvarianten hinweg konsistent. Um die Wirkung der Neuronen zu überprüfen, greifen wir während der Inferenz in die sprachspezifischen Neuronen ein und zeigen, dass sie die Wahrscheinlichkeit des Auftretens der Zielsprache bei der Textgenerierung drastisch verändern können.
統計資料
Die Decoder-basierten vortrainierten Sprachmodelle zeigen eine hohe Überlappung von weniger als 5% zwischen den sprachspezifischen Neuronen der verschiedenen Sprachen.
Die Verteilung der Top-1000 und Bottom-1000 Neuronen ist in den ersten und letzten Schichten des Modells konzentriert, während die mittleren Neuronen eher sprachunabhängig sind.
引述
"Decoder-basierte vortrainierte Sprachmodelle zeigen zwar hervorragende mehrsprachige Fähigkeiten, aber es ist unklar, wie sie Mehrsprachigkeit handhaben."
"Durch Eingriffe in diese Neuronen kann die Wahrscheinlichkeit des Auftretens der Zielsprache bei der Textgenerierung drastisch verändert werden."