Core Concepts
동적 학습이 ML 기반 네트워크 침입 탐지 시스템에 대한 적대적 공격의 효과를 감소시킬 수 있다.
Abstract
이 논문은 ML 기반 네트워크 침입 탐지 시스템(ML-NIDS)에 대한 적대적 회피 공격의 실용성을 탐구한다.
첫째, 공격 트리를 통해 ML-NIDS에 대한 적대적 회피 공격을 수행하기 위한 다양한 시나리오와 실행 가능성 문제를 식별한다.
둘째, ML-NIDS에 대한 적대적 공격의 실용성 문제와 과제를 정리한 분류법을 제시한다. 이는 연구와 실제 시나리오 간의 격차를 보여준다.
셋째, 동적 학습이 ML-NIDS에 대한 적대적 공격의 효과에 미치는 영향을 실험적으로 조사한다. 실험 결과, 지속적인 재학습은 FGSM, PGD, BIM 등의 적대적 공격에 대한 ML-NIDS의 강건성을 높이는 것으로 나타났다. 이는 공격자가 항상 최신 모델 정보를 가져야 하는 어려움을 보여준다.
Stats
지속적인 재학습 후에도 ML-NIDS의 정확도와 F1 점수가 0.9 이상으로 회복되었다.
SVM 모델의 경우 재학습 후 정확도와 F1 점수가 0.998로 매우 높은 수준을 유지했다.
ANN 모델의 경우 PGD와 BIM 공격 후 재학습 2일 차에 약간의 성능 감소(2%)가 있었다.
Quotes
"동적 학습이 ML 기반 네트워크 침입 탐지 시스템에 대한 적대적 공격의 효과를 감소시킬 수 있다."
"지속적인 재학습은 FGSM, PGD, BIM 등의 적대적 공격에 대한 ML-NIDS의 강건성을 높이는 것으로 나타났다."
"공격자가 항상 최신 모델 정보를 가져야 하는 어려움을 보여준다."