Core Concepts
Diese Arbeit präsentiert eine analytische Momentenpropagationstechnik, um die Eingabe-Ausgabe-Verteilungen tiefer neuronaler Netze genau zu charakterisieren.
Abstract
Die Arbeit präsentiert eine analytische Momentenpropagationstechnik, um die Eingabe-Ausgabe-Verteilungen tiefer neuronaler Netze genau zu charakterisieren.
Kernpunkte:
Unsicherheitsquantifizierung ist entscheidend, um die Zuverlässigkeit und Robustheit von Deep-Learning-Systemen zu messen. Bisherige Methoden sind oft kostspielig oder ungenau.
Diese Arbeit leitet eine exakte analytische Lösung für die Kovarianz von nichtlinearen Aktivierungsfunktionen wie Heaviside, ReLU und GELU her.
Die vorgeschlagene Technik kann sowohl zur Analyse als auch zur Synthese neuronaler Netze eingesetzt werden. Experimente zeigen eine verbesserte Genauigkeit bei der Charakterisierung von Eingabe-Ausgabe-Verteilungen trainierter neuronaler Netze und beim Training Bayesscher neuronaler Netze.
Stats
Die Varianz von z = g(y) mit y ∼ N(µ, σ2) ist:
Var(z) = ∑∞k=1 1/k! (σk ∂kE[z]/∂µk)2.
Quotes
Keine relevanten Zitate gefunden.