Der Artikel stellt PEFTSmoothing vor, ein neues Verfahren zur Erlangung zertifizierter Robustheit von Bildklassifizierungsmodellen gegen Adversarial Attacks.
Randomized Smoothing ist der derzeitige Stand der Technik für zertifizierte Robustheit, hat aber den Nachteil, dass das Basismodell komplett neu trainiert werden muss, um die durch Rauschen veränderte Datenverteilung zu lernen.
PEFTSmoothing überwindet diese Einschränkung, indem es Parameter-effizientes Finetuning (PEFT) Methoden wie Prompt-Tuning, LoRA und Adapter nutzt, um das Basismodell effizient an die Rauschen-augmentierte Datenverteilung anzupassen.
Die Experimente zeigen, dass PEFTSmoothing die zertifizierte Genauigkeit im Vergleich zu Denoised Smoothing deutlich verbessert, bei gleichzeitig deutlich geringerem Rechenaufwand. Selbst einfachere PEFT-Methoden wie LoRA und Prompt-Tuning übertreffen die Baseline-Methoden.
Darüber hinaus wird eine Black-Box-Variante von PEFTSmoothing vorgestellt, die auch für Modelle funktioniert, deren Parameter nicht zugänglich sind. Abschließend wird gezeigt, wie PEFTSmoothing mit PEFT-Methoden zur Anpassung an spezifische Zieldatensätze kombiniert werden kann.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Chengyan Fu,... at arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.05350.pdfDeeper Inquiries