核心概念
ニューラルネットワークの最小幅は、RELUやRELU-LIKE活性化関数を使用してLp([0, 1]dx, Rdy)で普遍的な近似を可能にするためにmax{dx, dy, 2}である。
要約
この記事では、深層ニューラルネットワークの最小幅が普遍的な近似を可能にするためにどのように機能するかが詳細に説明されています。著者らは、RELUやRELU-LIKE活性化関数を使用した場合、コンパクトドメイン上での近似がより少ない幅で可能であることを示しています。また、一連の証明技術を用いて、一般的な活性化関数や入出力次元におけるLpと一様近似間の差異も拡張しました。
統計
wmin = max{dx, dy, 2}
wmin ≥ dy + 1 if dx < dy ≤ 2dx
f ∗(x) = (1 − 6x1, 1 − 6x2, ..., 1 − 6dx, 0, ..., 0) if x ∈ [0, 1]dx in D1
f ∗(x) = (0, ..., 0, 6x1 - 5, ..., ,6xr -5) if x ∈ [2/3, 1]r × {1}dx-r in D2