核心概念
FedLog는 기존 연합 학습 모델 파라미터 공유 방식의 단점을 보완하기 위해, 충분한 데이터 요약 정보를 공유하고 베이지안 추론을 활용하여 통신 오버헤드를 줄이고 유연성을 높인 개인 맞춤형 연합 학습 전략입니다.
要約
FedLog: 통신량은 줄이고 유연성은 높인 개인 맞춤형 연합 분류
본 연구 논문에서는 개인 맞춤형 연합 학습(FRL)에서 발생하는 높은 통신 오버헤드 문제를 해결하고자 새로운 알고리즘인 FedLog를 제안합니다. FedLog는 기존 모델 파라미터 공유 방식 대신, 충분한 데이터 요약 정보를 공유하고 베이지안 추론을 활용하여 통신 효율성을 높이고 모델 구조 유연성을 확보하는 데 목표를 둡니다.
FedLog는 각 클라이언트의 데이터에서 추출된 특징을 지수족 분포로 모델링하고, 이 분포의 충분 통계량만을 서버와 공유합니다. 서버는 수집된 충분 통계량을 사용하여 베이지안 추론을 통해 최적의 글로벌 모델 헤드 파라미터를 학습합니다. 이때, 충분 통계량의 크기는 고정되어 데이터 크기가 증가해도 통신량이 크게 증가하지 않습니다. 또한, 베이지안 추론을 통해 모델 파라미터를 평균하는 방식보다 빠른 수렴 속도를 보입니다.