この記事では、深層ニューラルネットワークの最小幅が普遍的な近似を可能にするためにどのように機能するかが詳細に説明されています。著者らは、RELUやRELU-LIKE活性化関数を使用した場合、コンパクトドメイン上での近似がより少ない幅で可能であることを示しています。また、一連の証明技術を用いて、一般的な活性化関数や入出力次元におけるLpと一様近似間の差異も拡張しました。
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Namjun Kim,C... um arxiv.org 03-06-2024
https://arxiv.org/pdf/2309.10402.pdfTiefere Fragen