이 논문은 연방 학습(Federated Learning)에서 기반 모델(Foundation Model)의 미세 조정 문제를 다룬다. 기존의 연방 학습 알고리즘은 전체 모델 구조를 학습하는데 어려움이 있었다. 이에 저자들은 FedRA라는 새로운 알고리즘을 제안한다.
FedRA의 핵심 아이디어는 다음과 같다:
저자들은 ViT와 MLP-Mixer 모델을 사용하여 DomainNet과 NICO++ 데이터셋에서 실험을 수행했다. 그 결과 FedRA가 기존 방법들에 비해 월등한 성능을 보였다. 특히 클라이언트의 계산 능력이 매우 다양한 극단적인 상황에서도 FedRA가 우수한 성능을 발휘했다.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Shangchao Su... lúc arxiv.org 03-13-2024
https://arxiv.org/pdf/2311.11227.pdfYêu cầu sâu hơn