Core Concepts
사전 훈련된 모델을 이용한 새로운 적대적 세밀 조정 방법 소개
Abstract
대규모 사전 훈련된 비전-언어 모델의 성능과 제로샷 일반화 능력 강조
새로운 세밀 조정 방법 PMG-AFT 소개
PMG-AFT는 사전 훈련된 모델의 일반화 특성을 유지하면서 적대적 강건성을 향상시킴
실험 결과, PMG-AFT가 다른 방법보다 우수한 성능을 보임
Stats
CLIP와 CLIPs의 제로샷 강건 정확도가 평균 4.99% 향상됨
PMG-AFT는 깨끗한 정확도를 평균 8.72% 향상시킴
Quotes
"우리의 방법은 사전 훈련된 모델의 강력한 일반화 능력에서 영감을 받아 CLIP의 제로샷 적대적 강건성을 향상시키는 혁신적인 방법을 제안합니다."
"우리의 방법은 모델의 일반화 능력을 유지하면서 새로운 세밀 조정 과정을 보정하는 데 사전 모델로부터의 제약을 통합합니다."