Das Paper untersucht die Robustheit von Vision-Language-Modellen in Bezug auf das verwendete Textprompt. Es wird eine Methode namens Adversarial Prompt Tuning (APT) vorgeschlagen, um robuste Textprompts für Modelle zu lernen und die Robustheit gegenüber adversären Angriffen zu verbessern. Die Wirksamkeit von APT wird durch umfangreiche Experimente auf 15 Datensätzen und 4 Datensparsamkeitsschemata gezeigt. APT zeigt sich als parameter- und dateneffizient und übertrifft handgefertigte Prompts und andere State-of-the-Art-Anpassungsmethoden. Durch die einfache Hinzufügung eines gelernten Wortes zu den Prompts kann die Genauigkeit und Robustheit erheblich gesteigert werden.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Lin Li,Haoya... lúc arxiv.org 03-05-2024
https://arxiv.org/pdf/2403.01849.pdfYêu cầu sâu hơn