연방 학습에서 데이터와 시스템의 이질성에 강인한 FedADMM 방법은 하이퍼파라미터를 주의 깊게 조정하지 않으면 성능 저하를 겪는다. 이를 해결하기 위해 부정확하고 자기 적응적인 FedADMM 알고리즘인 FedADMM-InSa를 제안한다.
연방 학습 알고리즘들은 정확도, 계산 오버헤드, 통신 오버헤드, 성능 안정성, 학습 불안정성 등 다양한 측면에서 서로 다른 특성을 보인다.
연방 학습에서 통신 비용을 크게 줄이면서도 강력한 사전 학습 모델의 성능을 유지할 수 있는 새로운 프레임워크인 FedPEFT를 제안한다.
FedRA는 연방 클라이언트의 다양한 계산 능력을 활용하여 기반 모델을 효과적으로 미세 조정할 수 있는 알고리즘이다.