Der Artikel untersucht die Komplexität verschiedener Verifikationsprobleme für Neuronale Netze, insbesondere im Hinblick auf Robustheit und Minimalität.
Zunächst werden grundlegende Definitionen und Probleme wie NNReach, VIP und NE eingeführt. Dann werden verschiedene Robustheitseigenschaften wie Klassifikationsrobustheit, Standardrobustheit und Lipschitz-Robustheit definiert und deren Komplexität analysiert. Es zeigt sich, dass für lineare und stückweise lineare Aktivierungsfunktionen wie ReLU viele dieser Probleme in co-NP liegen, während für nichtlineare Aktivierungen die Komplexität deutlich höher ist.
Im zweiten Teil wird die Frage der Minimalität von Neuronalen Netzen untersucht. Es wird gezeigt, dass die Probleme MIN (Minimalität) und ANECE (Notwendigkeit aller Knoten) in ΠP
2 liegen, wenn nur semi-lineare Aktivierungsfunktionen verwendet werden. Außerdem wird ein Zusammenhang zwischen Netzwerkäquivalenz (NE) und Knotennotwendigkeit (NECE) hergestellt.
Insgesamt zeigt der Artikel, dass die Komplexität der untersuchten Probleme stark von den verwendeten Aktivierungsfunktionen abhängt und liefert ein theoretisches Gerüst, um Sicherheits- und Effizienzfragen in Neuronalen Netzen zu analysieren.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies