核心概念
Große Sprachmodelle können durch kontextbezogenes Lernen diverse Aufgaben in unterrepräsentierten Sprachen mit nur wenigen kontextbezogenen Informationen durchführen, was einen entscheidenden Weg zur Verringerung der Lücke zwischen Sprachen mit hohen und geringen Ressourcen bietet.
摘要
Die Studie untersucht umfassend das kontextbezogene Lernen (ICL) und seine sprachübergreifende Variante (X-ICL) in 25 Sprachen mit geringen Ressourcen und 7 relativ ressourcenreicheren Sprachen.
Die Ergebnisse zeigen, dass die Leistung von X-ICL mit der Größe der Vortrainingsdaten der Zielsprachen korreliert. Darüber hinaus stellt sich entgegen früherer Arbeiten heraus, dass die Ausrichtung der Etiketten im Kontext nicht für alle untersuchten Sprachen funktioniert und eine alternative Ausrichtungsmethode, nämlich die Ausrichtung der Abfrage im Kontext, die Ausrichtungsqualität deutlich verbessert.
Die Studie analysiert außerdem Variationen von X-ICL-Aspekten wie Ausrichtungsformatierung, Etikettenkonfiguration und Auswahlstrategie für kontextbezogene Lernbeispiele. Die Ergebnisse und Analysen heben die Bedeutung weniger kontextbezogener Informationen für die Verbesserung der Verständnisqualität von Sprachen mit geringen Ressourcen durch semantisch relevante Informationen hervor, bei denen das monolinguale ICL den Sprach- und Domänenabstand zum Zielaufgabe schließt, X-ICL den Domänenabstand zur Zielaufgabe schließt und die kontextbezogene Ausrichtung die semantische Lücke zwischen der Zielsprache mit geringen Ressourcen und der Hochsprache, in der das Modell bewandert ist, schließt.
統計資料
Große Sprachmodelle haben Schwierigkeiten, über verschiedene Sprachen zu generalisieren, was zu Leistungsunterschieden, insbesondere für Sprachen mit geringen Ressourcen, führt.
Kontextbezogenes Lernen (ICL) ermöglicht es großen Sprachmodellen, diverse Aufgaben in unterrepräsentierten Sprachen mit nur wenigen kontextbezogenen Informationen durchzuführen.
Die Leistung von X-ICL korreliert mit der Größe der Vortrainingsdaten der Zielsprachen.
Die Ausrichtung der Etiketten im Kontext funktioniert nicht für alle untersuchten Sprachen, während die Ausrichtung der Abfrage im Kontext die Ausrichtungsqualität deutlich verbessert.
引述
"Große Sprachmodelle können durch kontextbezogenes Lernen diverse Aufgaben in unterrepräsentierten Sprachen mit nur wenigen kontextbezogenen Informationen durchführen, was einen entscheidenden Weg zur Verringerung der Lücke zwischen Sprachen mit hohen und geringen Ressourcen bietet."
"Die Ergebnisse und Analysen heben die Bedeutung weniger kontextbezogener Informationen für die Verbesserung der Verständnisqualität von Sprachen mit geringen Ressourcen durch semantisch relevante Informationen hervor."