Core Concepts
Zufällig generierte flache neuronale Netzwerke mit ReLU-Aktivierungsfunktionen können beliebig glatte Funktionen auf beschränkten Gebieten mit hoher Wahrscheinlichkeit approximieren, wobei der Approximationsfehler mit der Anzahl der Neuronen abnimmt.
Abstract
Der Artikel untersucht die Approximationseigenschaften von zufällig generierten, flachen neuronalen Netzwerken mit ReLU-Aktivierungsfunktionen. Es wird gezeigt, dass solche Netzwerke in der Lage sind, beliebig glatte Funktionen auf beschränkten Gebieten mit hoher Wahrscheinlichkeit zu approximieren, wobei der Approximationsfehler mit der Anzahl der Neuronen abnimmt.
Zunächst wird ein neues Integral-Repräsentationstheorem für ReLU-Aktivierungen und glatte Funktionen auf beschränkten Gebieten hergeleitet. Darauf aufbauend wird bewiesen, dass der Worst-Case-Fehler der Approximation mit der Rate O(m^(-1/2)) gegen Null geht, wobei m die Anzahl der Neuronen ist. Dabei genügt es, die Gewichte und Bias-Werte zufällig aus einer Verteilung mit strikt positiver Dichte zu wählen.
Als Anwendung wird gezeigt, wie das Approximationstheorem verwendet werden kann, um neuronale Netzwerke zu konstruieren, die für modellbasierte adaptive Regelungsprobleme mit unbekannten Nichtlinearitäten geeignet sind. Insbesondere wird quantifiziert, wie viele Neuronen benötigt werden, um die erforderliche Genauigkeit für einen Regelungsalgorithmus aus der Literatur zu erreichen.
Stats
Die Approximationsfehler-Schranke lautet:
sup_{x∈B_0(R)} |f_N(x) - f(x)| ≤ 1/√m * (κ_0 + κ_1 * √log(ν/4))
mit
κ_0 = 512n^(1/2) * π^(5/2) * R * ρ * (π/P_min + A_{n-1})
κ_1 = 264 * π^2 * ρ * R / P_min + ρ * A_{n-1} * (4 + 256 * R * π)
Für den Fall der Gleichverteilung vereinfachen sich die Koeffizientenabschätzungen zu:
|c_i| ≤ 16 * π^2 * ρ * A_{n-1} / m
κ_0 ≤ 512 * n^(1/2) * π^(5/2) * R * ρ * A_{n-1} * (1 + 2 * π * R)
κ_1 ≤ ρ * A_{n-1} * (528 * (π * R)^2 + 256 * π * R + 4)
Quotes
Keine relevanten wörtlichen Zitate identifiziert.