이 논문은 연방 학습에서 통신 제약을 해결하면서도 강력한 사전 학습 모델의 성능을 유지할 수 있는 새로운 프레임워크인 FedPEFT를 소개한다.
기존 연방 학습 프레임워크에서는 모든 모델 매개변수를 클라이언트와 서버 간에 전송해야 하므로 통신 비용이 매우 크다는 문제가 있다. 특히 최신 대규모 사전 학습 모델을 사용할 경우 이 문제가 더욱 심각해진다.
FedPEFT는 매개변수 효율적 미세 조정 기법을 활용하여 사전 학습 모델의 일부 매개변수만 업데이트하고 전송함으로써 통신 비용을 크게 줄인다. 구체적으로 Head-tuning, FedPEFT-Bias, FedPEFT-Adapter, FedPEFT-Prompt 등의 기법을 제안한다.
다양한 실험을 통해 FedPEFT가 통신 비용을 크게 줄이면서도 기존 연방 학습 방식과 비교해 경쟁력 있는 성능을 달성할 수 있음을 보여준다. 특히 데이터 이질성, 클라이언트 가용성, 차등 프라이버시, 데이터 부족 등 다양한 연방 학습 시나리오에서 강건한 성능을 보인다.
이를 통해 FedPEFT는 실용적이고 효과적인 연방 학습 시스템을 구현할 수 있는 새로운 패러다임을 제시한다.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Guangyu Sun,... о arxiv.org 04-04-2024
https://arxiv.org/pdf/2210.01708.pdfГлибші Запити