Die Studie untersuchte umfassend 15 PEFT-Architekturen, die auf 8 verschiedenen Methoden basieren, um deren Leistung für die maschinelle Übersetzung von ressourcenarmen Sprachen zu bewerten. Die Ergebnisse zeigen, dass 6 PEFT-Architekturen die Baseline-Leistung sowohl für domänenspezifische als auch domänenübergreifende Tests übertreffen. Insbesondere der Houlsby+Inversion-Adapter zeigte die beste Gesamtleistung und erwies sich als effektiv für PEFT-Methoden.
Die Studie untersuchte auch den Einfluss der Anzahl der feinabgestimmten Parameter, der Sprachfamilie und der Trainingsdatengröße auf die Übersetzungsleistung. Es wurde festgestellt, dass eine Reduktion der Parameterzahl um Faktor 2 die beste Leistung erbringt. Sprachen aus der gleichen Sprachfamilie und größere Trainingsdatensätze führten zu besseren Ergebnissen. Die Ergebnisse zeigen, dass PEFT-Methoden vielversprechend sind, um die Übersetzungsqualität für ressourcenarme Sprachen bei geringem Ressourcenverbrauch zu verbessern.
To Another Language
from source content
arxiv.org
Deeper Inquiries