Der Artikel untersucht die Bedeutung der Ausdrucksstärke von Verlustfunktionen für das Training von Netzwerken mit verifizierter Robustheit.
Zunächst wird der Hintergrund zu adversarischem Training und neuronaler Netzwerkverifikation erläutert. Bisherige Ansätze zur Erreichung verifizierter Robustheit werden in zwei Kategorien eingeteilt: Direkte Beschränkung der oberen Schranke der Verlustfunktion und Kopplung von adversarischem Training mit Verifizierbarkeitstechniken.
Der Artikel definiert dann den Begriff der "Ausdrucksstärke" von Verlustfunktionen, die einen Bereich zwischen adversarieller und verifizierter Robustheit abdecken. Es werden drei einfache Instanzen solcher ausdrucksstarker Verlustfunktionen vorgestellt, die auf konvexen Kombinationen basieren: CC-IBP, MTL-IBP und Exp-IBP.
Umfangreiche Experimente auf Benchmark-Datensätzen zeigen, dass diese minimalistischen ausdrucksstarken Verlustfunktionen den Stand der Technik übertreffen, sowohl in Bezug auf Genauigkeit als auch verifizierte Robustheit. Eine detaillierte Analyse verdeutlicht, dass die Ausdrucksstärke entscheidend ist, nicht die spezifische Form der Verlustfunktion. Außerdem wird gezeigt, dass eine bessere Approximation der Worst-Case-Verlustfunktion nicht zwangsläufig zu besseren Ergebnissen führt.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Alessandro D... at arxiv.org 03-15-2024
https://arxiv.org/pdf/2305.13991.pdfDeeper Inquiries