본 논문은 심층 신경망의 적대적 공격에 대한 강건성을 향상시키는 방법을 제안한다.
입력 공간에서의 마진을 직접적으로 증가시키는 차별화 가능한 정규화기를 제안한다. 이 정규화기는 신경망의 Lipschitz 상수를 활용한다.
신경망의 Lipschitz 상수에 대한 효율적이고 정확한 상한 계산 방법인 LipLT를 개발한다. LipLT는 활성화 함수의 단조성과 Lipschitz 연속성을 활용하여 기존 방법보다 더 정확한 상한을 제공한다.
제안한 Lipschitz 상수 추정 알고리즘을 훈련 손실 함수에 통합하여 내부 최적화 과정이 필요 없는 강건 훈련 알고리즘을 개발한다.
실험 결과, 제안 방법이 MNIST, CIFAR-10, Tiny-ImageNet 데이터셋에서 기존 최신 방법들과 비교하여 경쟁력 있는 성능을 보인다.
翻譯成其他語言
從原文內容
arxiv.org
深入探究