Core Concepts
적대적 공격으로부터 안드로이드 악성코드 분류기의 강건성을 높이기 위한 방법론을 제시한다.
Abstract
이 논문은 안드로이드 악성코드 분류기에 대한 적대적 공격과 방어에 대해 종합적으로 다루고 있다.
먼저 악성코드 분류를 위한 다양한 기계학습 모델들을 소개하고, 적대적 공격의 정의와 분류, 위협 모델을 설명한다. 안드로이드 시스템과 악성코드 데이터셋에 대한 배경 지식도 제공한다.
이어서 적대적 공격 기법들을 자세히 살펴본다. L-BFGS, FGSM, BIM, PGD, JSMA, C&W, DeepFool 등 다양한 공격 방법론을 소개하고 수학적 원리를 설명한다. 또한 실제 세계에서의 적대적 공격 사례도 다룬다.
적대적 방어 기법으로는 모델 강건성 향상 방법(adversarial training, input regularization, defensive distillation 등)과 적대적 샘플 탐지 기법(KD+BU, LID, Feature Squeeze, MMD 등)을 소개한다. 각 방법의 핵심 아이디어와 수학적 배경을 제시한다.
마지막으로 안드로이드 악성코드 분류기에 특화된 문제 공간 기반 적대적 공격과 방어 전략을 논의한다. 이를 통해 안드로이드 악성코드 분류기의 강건성을 높이기 위한 지침과 향후 연구 방향을 제시한다.
Stats
"안드로이드 운영 체제는 전 세계적으로 가장 널리 사용되는 운영 체제이며 악의적 행위자들의 주요 타겟이 되고 있다."
"2023년 1분기 동안 모바일 플랫폼에서 약 500만 개의 악성 앱이 탐지되었다."
Quotes
"적대적 공격은 분류기의 학습된 매개변수의 결함을 이용한다."
"적대적 예제는 모델 간 전이성과 학습 데이터 세트 간 전이성을 보인다."
"적대적 방어는 적대적 샘플을 탐지하고 거부하거나 공격에 강건한 분류기를 구축하는 것을 목표로 한다."