Verbesserung der Leistung von Batch-Normalisierung in föderiertem Deep Learning
Batch-Normalisierung (BN) kann in vielen föderativen Lerneinstellungen die Leistung von Gruppe-Normalisierung (GN) übertreffen, insbesondere wenn die Kommunikationsfrequenz gering ist oder der Grad der Nicht-IID-Verteilung nicht extrem ist. Wir schlagen einen einfachen Ansatz namens FIXBN vor, der die negativen Auswirkungen von BN in föderativem Lernen reduziert, während die positiven Auswirkungen beibehalten werden.