Основні поняття
웹 규모의 데이터와 거대 모델을 활용하여 기존 적대적 훈련 기법의 성능을 크게 향상시킬 수 있다.
Анотація
이 논문은 적대적 훈련 기법을 웹 규모의 데이터와 거대 모델에 적용하여 기존 기법의 한계를 극복하는 방법을 제안한다.
주요 내용은 다음과 같다:
기존 적대적 훈련 기법은 주로 작은 모델과 작은 데이터셋에 국한되어 있었으나, 이 논문에서는 거대 모델과 웹 규모의 데이터를 활용하여 적대적 훈련 기법을 확장한다.
효율적이고 효과적인 두 단계 훈련 전략(lightweight 사전 훈련 + 집중적 fine-tuning)을 제안하여 계산 비용을 크게 줄였다.
CLIP 텍스트 인코더를 활용하여 웹 크롤링 이미지 데이터에서도 효과적으로 학습할 수 있도록 하였다.
실험 결과, 이 방법으로 ImageNet-1K 데이터셋에서 기존 최고 성능 대비 l∞, l2, l1 강건성 지표에서 각각 11.4%, 14.2%, 12.9% 향상된 새로운 최고 기록을 달성하였다.
이를 통해 거대 모델과 웹 규모 데이터를 활용한 적대적 훈련이 모델 강건성 향상에 매우 효과적임을 보여주었다.
Статистика
기존 최고 기록 대비 l∞ 강건성 11.4% 향상
기존 최고 기록 대비 l2 강건성 14.2% 향상
기존 최고 기록 대비 l1 강건성 12.9% 향상
Цитати
"웹 규모의 데이터와 거대 모델을 활용하여 기존 적대적 훈련 기법의 성능을 크게 향상시킬 수 있다."
"이를 통해 거대 모델과 웹 규모 데이터를 활용한 적대적 훈련이 모델 강건성 향상에 매우 효과적임을 보여주었다."