Effiziente Verteiltes Lernen mit Signiertem Stochastischem Gradientenabstieg und Föderierter Abstimmung
Der Kerngedanke ist, eine kommunikationseffiziente und robuste verteilte Lernmethode für heterogene Rechenkapazitäten der Geräte zu entwickeln. Dies wird durch den Einsatz von lernbaren Gewichten beim Mehrheitsvotum für die Gradientenaggreagation erreicht, um die Geräte mit hoher Rechenleistung, insbesondere mit großen Mini-Batch-Größen, zu priorisieren.