Die Autoren identifizieren eine Schwäche der 0/1-Verlustfunktion und anderer alternativer Verlustfunktionen in herkömmlichen SVM-Klassifizierern. Diese Verlustfunktionen berücksichtigen nicht den Grad der Bestrafung für korrekt klassifizierte Samples innerhalb des Randes, was sich auf die Generalisierungsfähigkeit auswirkt.
Um dies zu adressieren, schlagen die Autoren eine neuartige Slide-Verlustfunktion (ℓs) vor, um eine robuste binäre Support-Vektor-Maschine (ℓs-SVM) zu konstruieren. Die Slide-Verlustfunktion bestraft Samples, die falsch klassifiziert werden oder deren Konfidenz nicht ausreichend ist, mit unterschiedlichen Graden.
Die Autoren analysieren die Subdifferenzierbarkeit und den proximalen Operator der Slide-Verlustfunktion und definieren den proximalen stationären Punkt für ℓs-SVM. Darauf aufbauend leiten sie die Optimalitätsbedingungen her.
Basierend auf dieser theoretischen Analyse definieren die Autoren die ℓs-Stützvektor-Menge und entwickeln einen effizienten ADMM-Algorithmus (ℓs-ADMM) zur Lösung von ℓs-SVM. Die numerischen Experimente bestätigen die Robustheit und Effektivität des vorgeschlagenen Verfahrens im Vergleich zu anderen SVM-Lösern.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문