Alapfogalmak
합성곱 기반 학습 불가능 데이터셋에 대한 새로운 방어 기법인 COIN을 제안하여 기존 방어 기법들을 크게 능가하는 성능을 달성하였다.
Kivonat
이 논문은 합성곱 기반 학습 불가능 데이터셋(convolution-based unlearnable datasets, CUDA)에 대한 방어 기법을 처음으로 제안한다.
먼저 CUDA의 작동 원리를 수학적으로 모델링하고, 내부 클래스 행렬 불일치(Θimi)와 클래스 간 행렬 일관성(Θimc)이라는 두 가지 지표를 정의하였다. 이 지표들이 CUDA의 효과를 결정하는 핵심 요인임을 실험적으로 검증하였다.
이를 바탕으로 랜덤 행렬 Ar을 설계하여 Θimi와 Θimc를 동시에 높이는 방법을 제안하였다. 이를 실제 이미지에 적용한 COIN 방어 기법은 기존 방어 기법들을 크게 능가하는 성능을 보였다.
추가로 새로운 두 종류의 합성곱 기반 학습 불가능 데이터셋(VUDA, HUDA)을 제안하고, COIN이 이들에 대해서도 가장 효과적인 방어 기법임을 입증하였다.
Statisztikák
CUDA 데이터셋에서 Θimc가 1.000일 때(즉, 모든 클래스가 동일한 행렬로 변환될 때) 테스트 정확도가 90%를 초과한다.
Idézetek
"Sadasivan et al. (2023) find that the test accuracy breathtakingly surpasses 90% when adding universal multiplicative noise to the dataset, which implies that it is not the multiplicative noise itself that renders the dataset unlearnable."
"Inspired by the proposition from Yu et al. (2022) that the linearity separability property of noise is the reason for the effectiveness of UDs, we conjecture that either increasing the inconsistency within intra-class multiplicative noise or enhancing the similarity within inter-class multiplicative noise can both impair unlearnable effects."