Centrala begrepp
Eine CNN-Architektur, die von der adaptiven Finite-Elemente-Methode inspiriert ist, wird vorgestellt, um parametrische partielle Differentialgleichungen effizient zu lösen. Die Architektur nutzt eine mehrstufige Diskretisierung der Lösungen und einen zuverlässigen a-posteriori-Fehlerschätzer, um eine problemangepasste Darstellung der Lösung auf lokal verfeinerten Gittern zu ermöglichen.
Sammanfattning
Der Artikel präsentiert einen Ansatz zur effizienten Lösung hochdimensionaler, parameterabhängiger partieller Differentialgleichungen (pPDEs) mithilfe einer neuronalen Netzwerkarchitektur.
Die Kernpunkte sind:
- Ableitung einer CNN-Architektur, die von der adaptiven Finite-Elemente-Methode (AFEM) inspiriert ist
- Einbindung einer mehrstufigen Diskretisierung der Lösungen, um die Trainingseffizienz und Genauigkeit zu verbessern
- Verwendung eines zuverlässigen a-posteriori-Fehlerschätzers, um die Approximation auf lokal verfeinerten Gittern zu steuern
- Numerische Tests für den "Cookie-Problem"-Benchmark zeigen, dass der Diskretisierungsfehler deutlich dominiert und die Netzwerkapproximation vernachlässigbar ist
Die vorgeschlagene Architektur iteriert die Schritte "Lösen", "Schätzen", "Markieren" und "Verfeinern" basierend auf dem Fehlerschätzer. Die mehrstufige Darstellung der Lösungen ermöglicht eine effizientere Herangehensweise in Bezug auf die benötigten Trainingsdaten, den Trainingsprozess und die Größe des Netzwerks. Die numerischen Ergebnisse zeigen, dass der Diskretisierungsfehler deutlich größer ist als der Fehler der Netzwerkapproximation.
Statistik
Die durchschnittlichen relativen Fehler sind wie folgt:
ENN = 2,82 × 10^-3 im H1-Norm und 1,28 × 10^-3 im L2-Norm
Etotal = 2,6357 × 10^-1 im H1-Norm und 8,999 × 10^-2 im L2-Norm
Ediscr = 2,6354 × 10^-1 im H1-Norm und 8,991 × 10^-2 im L2-Norm
Citat
Keine relevanten wörtlichen Zitate identifiziert.