核心概念
Obwohl mehrsprachiges Vortraining und Instruktionsfeinjustierung die Leistung von Großen Sprachmodellen in nicht-englischen Sprachen verbessern, ist die allgemeine Ausrichtung des mehrsprachigen Wissens in diesen Modellen nach wie vor unzureichend.
摘要
Die Studie untersucht die Ausrichtung des mehrsprachigen Wissens in Großen Sprachmodellen auf drei Ebenen: Leistung, Konsistenz und Leitfähigkeit. Die Ergebnisse zeigen, dass:
-
Die Grundfähigkeiten und das faktische Wissen der Modelle in englischen und nicht-englischen Sprachen unausgewogen sind. Obwohl die Modelle eine hohe Konsistenz zwischen den Sprachen aufweisen, ist ihre Leitfähigkeit des Wissens von einer Sprache in eine andere gering.
-
Mehrsprachiges Vortraining verbessert zwar die Grundfähigkeiten und die Wissensausrichtung auf der Leistungs- und Konsistenzebene, kann die Leitfähigkeit des Wissens jedoch nicht wesentlich steigern. Fortgesetztes Vortraining in einer Zielsprache verbessert nur die Leistung in dieser Sprache, geht aber zu Lasten anderer Sprachen.
-
Mehrsprachige Instruktionsfeinjustierung verbessert die Grundfähigkeiten in der Zielsprache und mildert den Leistungsabfall beim faktischen Wissen ab, kann die Konsistenz und Leitfähigkeit des Wissens jedoch kaum verbessern.
Insgesamt zeigt die Studie, dass die derzeitigen Methoden zur Steigerung der Mehrsprachigkeit von Großen Sprachmodellen zwar hilfreich sind, die Ausrichtung des mehrsprachigen Wissens jedoch nach wie vor unzureichend bleibt.
統計資料
Die Leistung der Modelle auf dem Grundwissenstest (xCSQA und xCOPA) variiert stark zwischen den Sprachen, wobei die Ergebnisse in Arabisch und Hebräisch am schlechtesten sind.
Die Leistung der Modelle auf dem faktischen Wissenstest (xGeo und xPeo) ist ebenfalls unausgewogen zwischen den Sprachen, wobei Chinesisch am schlechtesten abschneidet.
Die Konsistenz der Modelle zwischen Englisch und anderen Sprachen auf dem faktischen Wissenstest ist relativ hoch, aber die Leitfähigkeit des Wissens von Englisch in andere Sprachen ist sehr gering.
引述
"Obwohl beide Methoden, das mehrsprachige Vortraining und die Instruktionsfeinjustierung, für die Ausrichtung des mehrsprachigen Wissens vorteilhaft sind, muss die Trainingsstrategie sorgfältig gestaltet werden."
"Die allgemeine Ausrichtung des mehrsprachigen Wissens, insbesondere auf der Leitfähigkeitsebene, ist für alle getesteten Großen Sprachmodelle unbefriedigend, und weder das mehrsprachige Vortraining noch die Instruktionsfeinjustierung können die Leitfähigkeit des mehrsprachigen Wissens wesentlich verbessern."