Core Concepts
Das adaptive kodierte föderierte Lernen (ACFL) entwickelt eine adaptive Richtlinie zum Bestimmen der Aggregationsgewichte, um die Leistung in Bezug auf Datenschutz und Lernen zu optimieren.
Abstract
Der Artikel befasst sich mit dem Problem des föderalen Lernens in Gegenwart von Nachzüglern. Um dieses Problem anzugehen, wurde ein kodiertes föderales Lernparadigma (CFL) untersucht. In CFL lädt jedes Gerät einen kodierten lokalen Datensatz mit additivem Rauschen auf den zentralen Server hoch, bevor das Training beginnt, um dem zentralen Server die Erstellung eines global kodierten Datensatzes unter Datenschutzanforderungen zu ermöglichen. Während jeder Trainingsiteration aggregiert der zentrale Server die empfangenen Gradienten sowie den aus dem global kodierten Datensatz berechneten Gradienten, wobei eine adaptive Richtlinie zum Bestimmen der Aggregationsgewichte verwendet wird. Dieser Ansatz optimiert die Leistung in Bezug auf Datenschutz und Lernen durch Konvergenzanalyse und MI-DP. Schließlich werden Simulationsergebnisse präsentiert, die die Überlegenheit von ACFL gegenüber nicht-adaptiven Methoden zeigen.
Stats
Die absolute Größe aller Elemente in X(i) und Y(i) ist für alle i nicht größer als 1.
Die lokal berechneten Gradienten G(i)t sind für alle i beschränkt durch β2.
Die Parametermatrix ist beschränkt durch C2.
Quotes
Keine relevanten Zitate gefunden.