Eine einzelne Schussmethode mit einer approximativen Fréchet-Ableitung kann verwendet werden, um die Riemannsche Distanz zwischen zwei Punkten auf der Stiefel-Mannigfaltigkeit effizient zu berechnen.
Ein Stichprobenalgorithmus basierend auf modernen statistischen Maschinenlernmethoden wird vorgestellt, um bedingte nichtlineare optimale Störungen (CNOPs) zu erhalten, die sich von traditionellen (deterministischen) Optimierungsmethoden unterscheiden.
Durch Verwendung höherer Ordnung IMEX-Zeitschrittverfahren zur Lösung der zugrunde liegenden ADAM-Differentialgleichung können verbesserte Optimierungsalgorithmen für das Training neuronaler Netzwerke abgeleitet werden.
Die Konvergenzrate verschiedener Optimierungsalgorithmen erster Ordnung ist ein zentrales Anliegen in der numerischen Optimierung, da sie die Effizienz dieser Algorithmen über verschiedene Optimierungsprobleme hinweg widerspiegelt. Ziel ist es, einen bedeutenden Schritt in Richtung einer formalen mathematischen Darstellung von Optimierungstechniken unter Verwendung des Lean4-Theorembeweisers zu machen.
Eine Methode zur numerischen Lösung dynamischer Optimierungsprobleme, die eine flexible Diskretisierung verwendet, um enge Polynombegrenzungen zu erreichen und so die Konservativität der Bernstein-Beschränkungen zu eliminieren.