מושגי ליבה
本文提出了一個概念框架,利用深度神經網路數值求解有界多面體域上的線性橢圓型、拋物型和雙曲型偏微分方程。這些偏微分方程被重新表述為在參數化的深度神經網路族上最小化等價的、良定義的第一階系統的最小二乘(LSQ)餘差。這種LSQ餘差a)等於或與偏微分方程的弱餘差成比例,b)對於局部子網絡是可加的,表示神經網路相對於偏微分方程餘差的局部"不平衡",c)作為神經網路訓練的數值損失函數,d)即使在訓練不完全的情況下,也構成可計算的、(準)最優的數值誤差估計量,在自適應LSQ有限元方法的背景下。此外,提出了一種自適應神經網路增長策略,假設LSQ損失函數的精確數值最小化,可以產生神經網路序列,其實現以最優速率收斂到第一階系統LSQ公式的精確解。
תקציר
本文提出了一個概念框架,用於利用深度神經網路數值求解有界多面體域上的線性橢圓型、拋物型和雙曲型偏微分方程。
主要內容包括:
-
將偏微分方程重新表述為在參數化的深度神經網路族上最小化等價的、良定義的第一階系統的最小二乘(LSQ)餘差。這種LSQ餘差具有以下特點:
a) 等於或與偏微分方程的弱餘差成比例
b) 對於局部子網絡是可加的,表示神經網路相對於偏微分方程餘差的局部"不平衡"
c) 作為神經網路訓練的數值損失函數
d) 即使在訓練不完全的情況下,也構成可計算的、(準)最優的數值誤差估計量
-
提出了一種自適應神經網路增長策略,假設LSQ損失函數的精確數值最小化,可以產生神經網路序列,其實現以最優速率收斂到第一階系統LSQ公式的精確解。
-
利用在[31]中開發的可以準確模擬De Rham兼容有限元空間的神經網絡,構建了FoSLS神經網絡。這些神經網絡的實現函數在物理域D或時空域D = (0, T ) × G上是De Rham兼容的。
-
證明了FoSLS神經網絡的近似率界可以從已知的LSQ有限元方法的分析中轉移過來。此外,還證明了FoSLS神經網絡可以精確實現均勻本質邊界條件,這是其他方法的一個嚴重問題。
-
提出了基於LSQ泛函的可計算、物理正確的損失函數,並證明了即使在訓練不完全的情況下,它們也可以提供可靠和有效的數值誤差控制。
-
利用局部性和可加性,提出了由局部子網絡貢獻組成的損失函數,這對於自適應神經網絡增長策略很重要。
總之,本文提出了一個基於FoSLS的神經網絡框架,在數值求解線性偏微分方程方面具有多方面的優勢。
סטטיסטיקה
以下是一些重要的數據和指標:
第一階系統LSQ公式可以在最小正則性假設下保證變分一致性,即LSQ解與能量解一致。
FoSLS神經網絡的實現函數在物理域或時空域上是De Rham兼容的。
FoSLS神經網絡的近似率界可以從已知的LSQ有限元方法的分析中轉移過來。
FoSLS神經網絡可以精確實現均勻本質邊界條件。
基於LSQ泛函的可計算、物理正確的損失函數可以提供可靠和有效的數值誤差控制。
局部性和可加性允許設計由局部子網絡貢獻組成的損失函數,這對於自適應神經網絡增長策略很重要。
假設LSQ損失函數的精確數值最小化,所產生的神經網絡序列以最優速率收斂到第一階系統LSQ公式的精確解。
ציטוטים
"FoSLS NNs are of feedforward-type and realize a de Rham-compatible finite element function which is specified by the weights and biases of the NN."
"The computable numerical residual EFOSLS(θ) = ∥F −LUθ∥L(D), i.e. the numerical value of the loss function during training is a computable upper bound for the solution approximation error ∥U −Uθ∥V(D) in the physically meaningful "energy" norm ∥· ∥V(D) of any NN approximation Uθ."
"Minimizing EFOSLS(θ) over admissible NN approximations Uθ ∈V(D) provides a ∥· ∥V(D)-(quasi)optimal approximation Uθ∗of U ∈V(D)."