แนวคิดหลัก
본 연구는 시각-언어 사전 학습 모델의 적대적 공격 전이성을 향상시키기 위해 모달리티 간 상호작용을 활용하는 새로운 공격 기법을 제안한다.
บทคัดย่อ
본 논문은 시각-언어 사전 학습(VLP) 모델의 적대적 공격 전이성 향상을 위한 새로운 기법을 제안한다.
- 기존 연구 분석:
- 기존 공격 기법은 모달리티 간 상호작용을 간과하여 전이성이 제한적이었음
- 단어 수준의 텍스트 공격보다 임베딩 수준의 공격이 더 높은 전이성을 보임
- 이미지 정보를 활용한 텍스트 공격이 전이성을 향상시킬 수 있음
- 제안 기법 (CMI-Attack):
- 임베딩 가이드: 유사한 임베딩을 활용하여 의미를 유지하며 텍스트를 공격
- 상호작용 강화: 이미지 정보의 gradient를 활용하여 텍스트와 이미지 공격을 상호 보완
- 실험 결과:
- Flickr30K, MSCOCO 데이터셋에서 기존 최신 기법 대비 8.11%-16.75% 향상된 전이성 달성
- 이미지 캡셔닝 태스크에서도 우수한 성능 발휘
본 연구는 VLP 모델의 적대적 공격 전이성 향상을 위해 모달리티 간 상호작용의 중요성을 강조하고, 이를 활용한 새로운 공격 기법을 제안하였다.
สถิติ
이미지-텍스트 검색 성능(R@1) 지표에서 기존 최신 기법 대비 8.11%-16.75% 향상
이미지 캡셔닝 태스크에서 CIDEr 지표 7.2% 향상
คำพูด
"기존 공격 기법은 모달리티 간 상호작용을 간과하여 전이성이 제한적이었음"
"단어 수준의 텍스트 공격보다 임베딩 수준의 공격이 더 높은 전이성을 보임"
"이미지 정보를 활용한 텍스트 공격이 전이성을 향상시킬 수 있음"