Centrala begrepp
FedFixer는 개인화된 모델과 전역 모델의 협력을 통해 클라이언트별 깨끗한 샘플을 효과적으로 선별하여 연합 학습의 성능을 향상시킨다.
Sammanfattning
이 논문은 연합 학습(Federated Learning, FL)에서 발생하는 이질적인 레이블 노이즈 문제를 해결하기 위한 FedFixer 알고리즘을 제안한다.
- 개요:
- FL은 클라이언트 데이터의 프라이버시를 유지하면서 공통 모델을 학습하는 기술이다.
- 그러나 각 클라이언트의 레이블 노이즈 분포가 이질적이면 FL 모델의 일반화 성능이 크게 저하된다.
- 기존 중앙집중형 학습(CL) 기반 노이즈 레이블 학습 방법을 FL에 직접 적용하면 한계가 있다.
- FedFixer 알고리즘:
- 전역 모델(w)과 개인화된 모델(θ)로 구성된 이중 모델 구조를 제안한다.
- 각 클라이언트에서 두 모델을 번갈아 업데이트하여 노이즈 레이블 샘플을 효과적으로 식별한다.
- 개인화된 모델의 과적합을 방지하기 위해 신뢰도 정규화와 거리 정규화를 도입한다.
- 실험 결과:
- 벤치마크 데이터셋에서 다양한 이질적 노이즈 시나리오에서 FedFixer가 우수한 성능을 보인다.
- 특히 높은 수준의 이질적 노이즈 환경에서 기존 최신 방법보다 약 10% 향상된 성능을 달성한다.
- 클라이언트별 노이즈 제거 안정성 측면에서도 FedFixer가 우수한 결과를 보인다.
Statistik
이질적인 레이블 노이즈 환경에서 FedFixer가 기존 방법보다 약 10% 향상된 성능을 달성했다.
클라이언트별 노이즈 제거 안정성 측면에서도 FedFixer가 우수한 결과를 보였다.
Citat
"FL confronts a unique situation where each client's label noise distribution may be heterogeneous due to variations in the true class distribution and personalized human labeling errors."
"Unlike Centralized Learning (CL) with noisy labels, FL encounters even more pronounced impact from the existence of heterogeneous label noise."