이 논문은 연방 학습(FL)에서 효율적인 알고리즘 개발을 다룬다. 최근 개발된 FedADMM 방법은 데이터와 시스템의 이질성에 강인하지만, 하이퍼파라미터를 주의 깊게 조정하지 않으면 성능 저하를 겪는다.
이를 해결하기 위해 저자들은 부정확하고 자기 적응적인 FedADMM 알고리즘인 FedADMM-InSa를 제안한다:
부정확성 기준: 각 클라이언트가 자신의 고유한 상황에 따라 지역 학습 정확도를 동적으로 조정할 수 있는 쉽게 구현 가능한 기준을 제안한다. 이를 통해 클라이언트의 계산 부하를 줄이고 지연 효과를 완화할 수 있다.
자기 적응적 페널티 매개변수 조정: 각 클라이언트의 페널티 매개변수를 동적으로 조정하는 방식을 제안한다. 이를 통해 부적절한 고정 페널티 매개변수 선택으로 인한 성능 저하 위험을 제거할 수 있다.
제안된 알고리즘의 수렴성을 분석하고, 합성 및 실제 데이터셋에 대한 광범위한 실험을 통해 성능 향상을 입증한다. 실험 결과에 따르면 제안된 알고리즘은 클라이언트의 계산 부하를 64.3% 줄이면서 기존 FedADMM 대비 학습 과정을 가속화할 수 있다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yongcun Song... at arxiv.org 04-12-2024
https://arxiv.org/pdf/2402.13989.pdfDeeper Inquiries