Dieser Artikel bietet strenge Fehlergrenzen für physikinformierte neuronale Netzwerke, die die semilineare Wellengleichung approximieren. Es werden Grenzen für den Generalisierungs- und Trainingsfehler in Bezug auf die Breite der Netzwerkschichten und die Anzahl der Trainingspunkte für ein tanh-neuronales Netzwerk mit zwei versteckten Schichten bereitgestellt. Der Hauptbefund ist eine Grenze für den Gesamtfehler im H1([0, T]; L2(Ω))-Norm in Bezug auf den Trainingsfehler und die Anzahl der Trainingspunkte, die unter bestimmten Annahmen beliebig klein gemacht werden kann. Die theoretischen Grenzen werden mit numerischen Experimenten veranschaulicht.
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Beatrice Lor... kl. arxiv.org 03-07-2024
https://arxiv.org/pdf/2402.07153.pdfDybere Forespørgsler