מושגי ליבה
一般的なクラスのオペレーターには、Cr-またはLipschitz-正則性によって特徴付けられるものが含まれ、これらは単にその正則性によって決定されるため、オペレーター学習はパラメトリック複雑性の呪いを受ける。
תקציר
ニューラルオペレーターアーキテクチャは、関数のバナッハ空間間をマッピングする演算子を近似するためにニューラルネットワークを使用します。PCA-Net、DeepONet、およびFNOなどの既存のニューラルオペレーターに適用可能な結果が示されています。この論文では、一般的な演算子クラスがパラメトリック複雑性の呪いに苦しむことが証明されています。演算子学習フレームワークでPCA-Netを使用した場合でも同様です。これらのアーキテクチャはニューラルネットワークタイプであり、それぞれの下に必要な調整可能パラメーター数に下限があることが示されています。
ציטוטים
"The first contribution of this paper is to prove that for general classes of operators which are characterized only by their Cr- or Lipschitz-regularity, operator learning suffers from a “curse of parametric complexity”."
"The result is applicable to a wide variety of existing neural operators, including PCA-Net, DeepONet and the FNO."
"It follows from Corollary 2.12 that operator learning with PCA-Net suffers from a curse of parametric complexity."