Core Concepts
Globale lineare Konvergenz einer Klasse von iterativen Verfahren, einschließlich des gedämpften Newton-Verfahrens, der Fixpunkt-Iteration und der Kaˇ
canov-Iteration, die als verallgemeinerte Gradientenabstiegsverfahren interpretiert werden können.
Abstract
Der Artikel betrachtet die Konvergenz iterativer Lösungsverfahren für Probleme der nichtlinearen Magnetostatik. Durch die Äquivalenz zu einem zugrunde liegenden Minimierungsproblem können globale lineare Konvergenz für eine Vielzahl von Methoden, wie den gedämpften Newton-Algorithmus, die Fixpunkt-Iteration und die Kaˇ
canov-Iteration, nachgewiesen werden. Als adaptiven Schrittweitenregel wird das Armijo-Rückwärtsliniensuche-Verfahren verwendet. Die Hauptergebnisse werden auf der kontinuierlichen Ebene bewiesen, lassen sich aber fast wörtlich auf verschiedene Approximationsverfahren, wie Finite Elemente und isogeometrische Analyse, übertragen, was zu Konvergenzraten führt, die unabhängig von den Diskretisierungsparametern sind. Die theoretischen Ergebnisse werden anhand numerischer Tests für ein typisches Benchmark-Problem illustriert.
Stats
Keine relevanten Kennzahlen oder Statistiken im Text enthalten.
Quotes
Keine markanten Zitate im Text enthalten.