Der Artikel stellt PEFTSmoothing vor, ein neues Verfahren zur Erlangung zertifizierter Robustheit von Bildklassifizierungsmodellen gegen Adversarial Attacks.
Randomized Smoothing ist der derzeitige Stand der Technik für zertifizierte Robustheit, hat aber den Nachteil, dass das Basismodell komplett neu trainiert werden muss, um die durch Rauschen veränderte Datenverteilung zu lernen.
PEFTSmoothing überwindet diese Einschränkung, indem es Parameter-effizientes Finetuning (PEFT) Methoden wie Prompt-Tuning, LoRA und Adapter nutzt, um das Basismodell effizient an die Rauschen-augmentierte Datenverteilung anzupassen.
Die Experimente zeigen, dass PEFTSmoothing die zertifizierte Genauigkeit im Vergleich zu Denoised Smoothing deutlich verbessert, bei gleichzeitig deutlich geringerem Rechenaufwand. Selbst einfachere PEFT-Methoden wie LoRA und Prompt-Tuning übertreffen die Baseline-Methoden.
Darüber hinaus wird eine Black-Box-Variante von PEFTSmoothing vorgestellt, die auch für Modelle funktioniert, deren Parameter nicht zugänglich sind. Abschließend wird gezeigt, wie PEFTSmoothing mit PEFT-Methoden zur Anpassung an spezifische Zieldatensätze kombiniert werden kann.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Chengyan Fu,... lúc arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.05350.pdfYêu cầu sâu hơn