Core Concepts
Split Learning 기술에 Function Secret Sharing을 결합하여 클라이언트 데이터 프라이버시를 보호하고 Feature-Space Hijacking 공격을 방지할 수 있는 효율적인 방법을 제안한다.
Abstract
이 논문은 Split Learning (SL) 기술의 취약점을 해결하기 위해 Function Secret Sharing (FSS)을 활용하는 방법을 제안한다. SL은 클라이언트와 서버가 협력하여 ML 모델을 학습하는 기술로, 클라이언트의 데이터를 보호할 수 있다. 그러나 SL은 Feature-Space Hijacking 공격(FSHA)과 Visual Invertibility 공격에 취약하다는 문제가 있다.
논문에서는 다음과 같은 내용을 다룬다:
SL에 FSS를 결합하여 클라이언트 데이터 프라이버시를 보호하는 방법을 제안한다. 클라이언트는 활성화 맵에 랜덤 마스크를 추가하여 서버에 전송하고, 서버는 FSS를 사용하여 계산을 수행한다. 이를 통해 정방향 및 역방향 전파 과정에서 서버가 클라이언트의 원본 데이터를 복구할 수 없게 된다.
Visual Invertibility 공격에 대한 분석을 수행하여, FSS를 사용하면 서버가 활성화 맵으로부터 원본 이미지 데이터를 복구할 수 없음을 보인다.
FSHA에 대한 보안 분석을 수행하여, 제안하는 방법이 FSHA로부터 안전함을 입증한다.
실험 결과, 제안하는 방법이 기존 SL 기반 접근법에 비해 통신 오버헤드를 2배 이상 줄이고 학습 시간을 7배 이상 단축할 수 있음을 보인다. 또한 96% 이상의 정확도를 달성하여 일반 모델과 동등한 성능을 보인다.
Stats
제안하는 방법은 기존 SL 기반 접근법에 비해 통신 오버헤드를 2배 이상 줄일 수 있다.
제안하는 방법은 기존 SL 기반 접근법에 비해 학습 시간을 7배 이상 단축할 수 있다.
제안하는 방법은 96% 이상의 정확도를 달성하여 일반 모델과 동등한 성능을 보인다.
Quotes
"Split Learning (SL) offers a number of significant advantages over Federated Learning (FL). With SL, multiple parties can train an ML model together while keeping their respective parts private."
"To date, VI has not been considered an attack in research; rather, it has been seen as a privacy leakage metric in SL. In our work, we use VI as an attack, specifically a VI Inference Attack (VIIA) in SL."
"We demonstrated the security of our approach against FSHA. Also, our VI analysis demonstrates that the server cannot reconstruct raw image data from the activation maps."