Core Concepts
양자 및 고전 기계 학습 모델의 적대적 공격에 대한 비교 분석을 통해 양자 모델의 강건성을 이해하고자 한다.
Abstract
이 논문은 양자 및 고전 기계 학습 모델의 적대적 강건성을 비교 분석하였다. 구체적으로 다음과 같은 내용을 다루었다:
양자 및 고전 모델 간 적대적 공격의 유사점과 차이점을 조사하기 위해 특수 제작된 4개 클래스 이미지 데이터셋을 사용하였다.
진폭 인코딩 및 재업로드 인코딩 기반 양자 모델과 합성곱 신경망, Fourier 네트워크 등 고전 모델을 비교하였다.
전이 공격, 교란 패턴, Lipschitz 경계를 통해 양자 및 고전 모델의 강건성을 분석하였다.
양자 모델에 정규화를 적용하여 강건성이 향상되는 것을 확인하였다. 이는 Lipschitz 경계와도 연관되어 있음을 보였다.
실험 결과를 통해 양자 모델이 반드시 고전 모델보다 강건한 것은 아니며, 모델 구조와 하이퍼파라미터 설정에 따라 강건성이 달라짐을 확인하였다.
Stats
적대적 공격에 대한 정확도 저하가 크지만, 정규화를 통해 강건성이 향상된다.
진폭 인코딩 모델은 다른 모델에 비해 적대적 공격에 강건하다.
재업로드 인코딩 모델의 경우 학습 시간에 따라 강건성이 변화한다.
Quotes
"양자 기계 학습(QML)은 연구와 산업 분야에서 지속적으로 큰 관심을 받고 있다."
"고전 기계 학습 모델과 마찬가지로 QML 모델도 적대적 공격에 취약한 것으로 나타났지만, 양자 모델과 고전 모델 간 적대적 공격을 비교하는 방법은 아직 잘 알려져 있지 않다."