Globale $\mathcal{L}^2$-Minimierung mit einheitlicher exponentieller Rate durch geometrisch angepassten Gradientenabstieg im Deep Learning
Der Autor führt zwei modifizierte Versionen des Gradientenabstiegsverfahrens ein, die an die Geometrie des Problems angepasst sind, und beweist, dass im überparametrisierten Fall alle Bahnen des modifizierten Gradientenabstiegs die $\mathcal{L}^2$-Kosten mit einer einheitlichen exponentiellen Konvergenzrate zum globalen Minimum treiben.