Der Artikel stellt Multilingual Brain Surgeon (MBS) vor, einen innovativen Ansatz zur Kompression von mehrsprachigen Großsprachmodellen (Large Language Models, LLMs). Bestehende Kompressionsmethoden verwenden in der Regel nur englische Kalibrierungsdaten, was zu erheblichen Leistungseinbußen bei Minderheitensprachen führt.
MBS adressiert dieses Problem, indem es Kalibrierungsdaten proportional zur Sprachverteilung in den Trainingsdaten des Modells verwendet. Die Experimente auf dem BLOOM-Modell zeigen, dass MBS die Leistung bestehender Kompressionsmethoden wie SparseGPT, Wanda und GPTQ deutlich verbessert, insbesondere für Minderheitensprachen.
Darüber hinaus untersucht der Artikel die Dynamik der Sprachinteraktion während der Kompression. Es wird festgestellt, dass der Anteil einer Sprache in den Trainingsdaten und die Ähnlichkeit zu der verwendeten Kalibrierungssprache entscheidende Faktoren sind. Sprachen mit größerem Anteil in den Trainingsdaten und ähnlichere Sprachen zur Kalibrierungssprache sind robuster gegenüber Kompression.
Insgesamt präsentiert MBS einen innovativen Ansatz, um die Praktikabilität und Inklusion mehrsprachiger LLMs zu verbessern, indem die Leistung für Minderheitensprachen erhalten bleibt.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문