Das Paper untersucht die Robustheit von Vision-Language-Modellen in Bezug auf das verwendete Textprompt. Es wird eine Methode namens Adversarial Prompt Tuning (APT) vorgeschlagen, um robuste Textprompts für Modelle zu lernen und die Robustheit gegenüber adversären Angriffen zu verbessern. Die Wirksamkeit von APT wird durch umfangreiche Experimente auf 15 Datensätzen und 4 Datensparsamkeitsschemata gezeigt. APT zeigt sich als parameter- und dateneffizient und übertrifft handgefertigte Prompts und andere State-of-the-Art-Anpassungsmethoden. Durch die einfache Hinzufügung eines gelernten Wortes zu den Prompts kann die Genauigkeit und Robustheit erheblich gesteigert werden.
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Lin Li,Haoya... kl. arxiv.org 03-05-2024
https://arxiv.org/pdf/2403.01849.pdfDybere Forespørgsler