Leistungsfähige Sprachmodelle als wenig-ressourcen-Sprachenlernende mit kontextbezogenem Lernen
Große Sprachmodelle können durch kontextbezogenes Lernen diverse Aufgaben in unterrepräsentierten Sprachen mit nur wenigen kontextbezogenen Informationen durchführen, was einen entscheidenden Weg zur Verringerung der Lücke zwischen Sprachen mit hohen und geringen Ressourcen bietet.