Die Studie untersucht, wie viele Sprachen für das Feintuning großer Sprachmodelle wie BLOOM-7B1 auf mehrsprachige Aufgaben benötigt werden. Die Autoren verwenden den Bactrian-X Datensatz mit 52 Sprachen und führen schrittweise Feintuning durch, indem sie eine Sprache nach der anderen hinzufügen.
Die Ergebnisse zeigen, dass die Leistung auf mehrsprachigen Benchmarks nicht linear mit der Anzahl der Sprachen im Feintuning-Datensatz zunimmt. In einigen Fällen kann das Hinzufügen weiterer Sprachen die Leistung verbessern, in anderen Fällen aber auch verschlechtern. Es gibt keine konsistente Antwort auf die optimale Anzahl von Sprachen. Die Auswirkungen des mehrsprachigen Feintunings hängen stark von der Aufgabe, den Sprachen und den Evaluationsmetriken ab.
Die Studie betont die Notwendigkeit systematischerer Untersuchungen zu Faktoren wie Basismodelle, Feintuning-Daten, Aufgaben und Evaluationsprotokolle, um die Effektivität und Verallgemeinerbarkeit des mehrsprachigen Feintunings besser zu verstehen.
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Shaoxiong Ji... ที่ arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.04850.pdfสอบถามเพิ่มเติม