核心概念
텍스트 프롬프트를 통해 시각-언어 모델의 적대적 강건성 향상
摘要
이 연구는 텍스트 프롬프트를 통해 시각-언어 모델의 적대적 강건성을 연구하고, Adversarial Prompt Tuning (APT) 방법을 제안합니다. APT는 데이터 및 계산 효율적인 방법으로 적대적 공격에 대한 모델의 강건성을 향상시킵니다. 연구는 15개 데이터셋과 4가지 데이터 희소성 체계에서 APT의 우수성을 입증합니다. APT는 단순히 프롬프트에 학습된 단어 하나를 추가함으로써 정확도와 강건성을 현저히 향상시킬 수 있음을 보여줍니다.
- 시각-언어 모델의 적대적 강건성을 향상시키기 위해 텍스트 프롬프트를 조정하는 방법
- APT는 데이터 및 계산 효율적이며, 적대적 공격에 대한 강건성을 향상시킵니다.
- APT는 단순한 프롬프트 조정으로 정확도와 강건성을 현저히 향상시킵니다.
統計資料
APT는 단순히 프롬프트에 학습된 단어 하나를 추가함으로써 정확도와 강건성을 현저히 향상시킬 수 있음
APT는 가장 효과적인 설정에서 정확도와 강건성을 각각 +26.4% 및 +16.7% 향상시킴
引述
"APT는 데이터 및 계산 효율적인 방법으로 적대적 공격에 대한 모델의 강건성을 향상시킵니다."
"APT는 단순한 프롬프트 조정으로 정확도와 강건성을 현저히 향상시킵니다."