Kernkonzepte
Beschleunigung der Konvergenz der Newton-Methode für nichtlineare elliptische PDGs durch Verwendung von Fourier-Neuraloperatoren.
Zusammenfassung
Die Arbeit konzentriert sich darauf, die Konvergenz der Newton-Methode bei nichtlinearen elliptischen PDGs zu beschleunigen. Sie vergleicht verschiedene Ansätze und zeigt, wie die Verwendung von Fourier-Neuraloperatoren als initiale Vermutung die Konvergenz verbessert. Die Ergebnisse zeigen eine deutliche Beschleunigung der Konvergenz, insbesondere bei stark nichtlinearen Problemen.
Einleitung zur Newton-Methode und Problemen bei großen nichtlinearen Systemen.
Beschreibung von Jacobian-Free Newton-Krylov-Methoden und inexact Newton-Methoden.
Ansätze zur Beschleunigung der Konvergenz, einschließlich linearer Vorbereitung und nichtlinearer Voraussage.
Training von Fourier-Neuraloperatoren und deren Anwendung auf die Newton-Methode.
Numerische Ergebnisse in 1D und 2D zeigen die Wirksamkeit der vorgeschlagenen Methode.
Statistiken
"Die Ergebnisse zeigen eine deutliche Beschleunigung der Konvergenz."
"Die durchschnittliche Gewinnrate in der Anzahl der Iterationen beträgt über 100%."
"Die durchschnittliche Gewinnrate in der CPU-Zeit beträgt über 500%."
Zitate
"Die Ergebnisse zeigen eine deutliche Beschleunigung der Konvergenz."