Kernkonzepte
Supervisede Feinabstimmung und Anleitungstuning sind effektiver als In-Context Learning für Multilingual NLU.
Zusammenfassung
Die Studie vergleicht drei Lernansätze für Few-Shot Lernen: Supervised Fine-Tuning (SFT), Supervised Instruction-Tuning (SIT) und In-Context Learning (ICL).
ICL zeigt niedrigere Leistung und höhere Kosten im Vergleich zu SFT und SIT.
Die Analyse umfasst verschiedene Aspekte wie Datenkosten, Speicher- und Inferenzkosten sowie finanzielle Aufwendungen.
Ziel ist es, die Wirksamkeit von Sprachanpassung von LLMs zu untersuchen, wobei ICL nur oberflächliche Verbesserungen zeigt.
Statistiken
ICL hat höhere Kosten und niedrigere Leistung als SFT und SIT.
SIT zeigt die besten Ergebnisse in Bezug auf Leistung und Ressourceneffizienz.
Die Kosten für ICL sind höher aufgrund von Speicher- und Inferenzkosten.
Zitate
"Supervisede Ansätze übertreffen ICL in Bezug auf Leistung und Ressourceneffizienz."
"ICL zeigt nur oberflächliche Verbesserungen nach Sprachanpassung von LLMs."