연합학습(Federated Learning)은 여러 당사자가 개인 데이터를 공개하지 않고도 공동 모델을 협력적으로 학습할 수 있는 기술이다. 그러나 연합학습 모델은 데이터 이질성, 참여 당사자 선택 등의 특성으로 인해 특정 인구통계학적 그룹에 대한 편향이 발생할 수 있다. 연구자들은 연합학습 알고리즘의 그룹 공정성을 특성화하기 위한 다양한 전략을 제안했지만, 악의적인 공격에 대한 효과성은 충분히 탐구되지 않았다.
본 연구에서는 EAB-FL이라는 새로운 유형의 모델 오염 공격을 제안한다. EAB-FL은 모델의 유용성을 최소한으로 유지하면서 모델의 불공정성을 악화시키는 것을 목표로 한다. 악의적인 참여자는 일부 클라이언트 장치를 악용하여 로컬 학습 프로세스를 조작할 수 있다. EAB-FL은 먼저 레이어 관련 전파(LRP)를 사용하여 모델의 중요하지 않은 공간을 식별한 다음, 이 공간에 악의적인 영향을 주입하여 특정 인구통계학적 그룹에 대한 모델 성능을 저하시킨다.
3개의 데이터셋에 대한 광범위한 실험을 통해 EAB-FL의 효과성과 효율성을 입증했다. 또한 최신 보안 집계 규칙 및 공정성 최적화 알고리즘에서도 EAB-FL의 지속적인 효과를 확인했다. 이 연구 결과는 현재 연합학습 시스템의 공격 표면을 완전히 이해하고 이에 대한 완화 조치를 마련해야 할 필요성을 강조한다.
إلى لغة أخرى
من محتوى المصدر
arxiv.org
الرؤى الأساسية المستخلصة من
by Syed Irfan A... في arxiv.org 10-04-2024
https://arxiv.org/pdf/2410.02042.pdfاستفسارات أعمق