Effizientes föderiertes Lernen durch beschleunigte Gradientenberechnung der Clients
Das vorgeschlagene FedACG-Verfahren überträgt den globalen Momentumterm an die Clients, um deren lokale Aktualisierungen besser an den globalen Gradienten auszurichten und so die Konvergenz zu beschleunigen.