Der Adam-Optimierer konvergiert schneller als der Stochastische Gradientenabstieg mit Momentum (SGDM) unter der Bedingung der nicht-uniformen Glattheit.