Effizientes Vortrainieren von Sprachmodellen durch strukturiertes Pruning
Durch strukturiertes Pruning und dynamisches Batchladen können leistungsfähige, kompakte Sprachmodelle mit deutlich weniger Rechenaufwand als das Training von Grund auf entwickelt werden.