Das Paper untersucht die Robustheit von Vision-Language-Modellen in Bezug auf das verwendete Textprompt. Es wird eine Methode namens Adversarial Prompt Tuning (APT) vorgeschlagen, um robuste Textprompts für Modelle zu lernen und die Robustheit gegenüber adversären Angriffen zu verbessern. Die Wirksamkeit von APT wird durch umfangreiche Experimente auf 15 Datensätzen und 4 Datensparsamkeitsschemata gezeigt. APT zeigt sich als parameter- und dateneffizient und übertrifft handgefertigte Prompts und andere State-of-the-Art-Anpassungsmethoden. Durch die einfache Hinzufügung eines gelernten Wortes zu den Prompts kann die Genauigkeit und Robustheit erheblich gesteigert werden.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Lin Li,Haoya... alle arxiv.org 03-05-2024
https://arxiv.org/pdf/2403.01849.pdfDomande più approfondite