Die Studie untersucht die Verwendung von Batch-Normalisierung (BN) und Gruppe-Normalisierung (GN) in föderiertem Lernen (FL) und zeigt, dass BN in vielen Fällen GN übertrifft.
Zunächst wird eine erweiterte empirische Studie durchgeführt, die zeigt, dass GN nicht in allen FL-Einstellungen besser als BN ist. BN übertrifft GN insbesondere, wenn die Kommunikationsfrequenz gering ist oder der Grad der Nicht-IID-Verteilung nicht extrem ist.
Anschließend wird die Leistung von BN in FL genauer untersucht. Es wird festgestellt, dass die Abweichung der Gradientenberechnung aufgrund der Verwendung von Mini-Batch-Statistiken über die nicht-IID-Clients sowie die Diskrepanz zwischen Trainings- und Teststatistiken die Hauptprobleme darstellen.
Basierend auf diesen Erkenntnissen wird ein einfacher Ansatz namens FIXBN vorgeschlagen. FIXBN startet mit der standardmäßigen Verwendung von BN in FEDAVG und friert dann nach einer bestimmten Anzahl von Kommunikationsrunden die BN-Statistiken ein, um die negativen Auswirkungen zu reduzieren. FIXBN erzielt eine deutliche Verbesserung gegenüber BN und GN in verschiedenen FL-Einstellungen, einschließlich Hochfrequenz-Kommunikation und extremer Nicht-IID-Verteilung.
Darüber hinaus wird gezeigt, dass das Beibehalten des SGD-Momentums während des lokalen Trainings in FEDAVG die Leistung weiter verbessern kann.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문