Core Concepts
Positive Label-Smoothing erhöht die Privatsphäre-Leckage, während negative Label-Smoothing als Verteidigungsmechanismus dient.
Abstract
Inhaltsverzeichnis:
Einführung
Hintergrund und verwandte Arbeiten
Datenextraktion
Experimentelle Bewertung
Auswirkungen, zukünftige Arbeit und Einschränkungen
1. Einführung:
Label-Smoothing als Regularisierungsmethode für Deep Learning
Model Inversion Attacks zur Extraktion sensibler Informationen
2. Hintergrund und verwandte Arbeiten:
MIAs und deren Einfluss auf das Training von Modellen
Untersuchung der Auswirkungen von Label-Smoothing auf die Privatsphäre
3. Datenextraktion:
"Label-Smoothing verbessert die Generalisierung und Kalibrierung von Modellen."
"Negative Label-Smoothing kann die Privatsphäre-Leckage reduzieren."
4. Experimentelle Bewertung:
Angriffe auf Modelle mit unterschiedlichen Label-Smoothing-Faktoren
Auswirkungen auf die Modell-Embedding-Räume
5. Auswirkungen, zukünftige Arbeit und Einschränkungen:
Bedeutung der Forschung für die Modellsicherheit und Privatsphäre
Potenzial für weitere Untersuchungen und Herausforderungen in der MIA-Forschung
Stats
"Label-Smoothing verbessert die Generalisierung und Kalibrierung von Modellen."
"Negative Label-Smoothing kann die Privatsphäre-Leckage reduzieren."
Quotes
"Label-Smoothing verbessert die Generalisierung und Kalibrierung von Modellen."
"Negative Label-Smoothing kann die Privatsphäre-Leckage reduzieren."