核心概念
인공지능 보안 연구와 실제 인공지능 사용 간의 격차를 해소하기 위해 실용적인 위협 모델을 개발해야 한다.
要約
이 연구는 인공지능 보안 연구와 실제 인공지능 사용 간의 격차를 조사하였다. 연구진은 가장 많이 연구된 6가지 인공지능 보안 공격(오염, 백도어, 회피, 모델 도용, 멤버십 추론, 속성 추론)의 위협 모델을 검토하고, 271명의 산업 실무자를 대상으로 설문조사를 실시하였다.
주요 결과는 다음과 같다:
- 모든 6가지 공격이 실제 사용에서 관련성이 있는 것으로 나타났다.
- 그러나 연구에서 가정하는 공격자의 능력이 실제보다 과도하게 높은 경우가 많았다. 예를 들어 오염 및 백도어 공격의 경우 실제로는 훈련 데이터의 작은 부분만 변경할 수 있지만, 연구에서는 더 많은 부분을 변경할 수 있다고 가정한다.
- 실제 사용되는 데이터셋은 연구에서 사용되는 것보다 특징 수가 적은 경우가 많다.
- 인공지능 보안 지식이 실제 인공지능 시스템의 위협 모델에 영향을 미치지 않는 것으로 나타났다.
이 연구 결과는 인공지능 보안 연구와 실제 사용 간의 격차를 해소하고, 더 실용적인 위협 모델을 개발하는 데 기여할 것으로 기대된다.
統計
실제 사용되는 데이터셋의 특징 수는 10-100개 또는 102-103개인 경우가 가장 많다.
실제 사용되는 데이터셋의 크기는 103-105개 또는 105-108개인 경우가 가장 많다.
引用
"연구에서 가정하는 공격자의 능력이 실제보다 과도하게 높은 경우가 많았다."
"실제 사용되는 데이터셋은 연구에서 사용되는 것보다 특징 수가 적은 경우가 많다."
"인공지능 보안 지식이 실제 인공지능 시스템의 위협 모델에 영향을 미치지 않는 것으로 나타났다."