Core Concepts
Ein neuartiger differentiell privater Algorithmus für Online-Federated-Learning, der zeitlich korreliertes Rauschen verwendet, um den Nutzen bei gleichzeitiger Gewährleistung der Privatsphäre der kontinuierlich freigegebenen Modelle zu verbessern.
Abstract
Der Artikel präsentiert einen neuartigen differentiell privaten Algorithmus für Online-Federated-Learning (OFL), der zeitlich korreliertes Rauschen verwendet, um den Nutzen bei gleichzeitiger Gewährleistung der Privatsphäre der kontinuierlich freigegebenen Modelle zu verbessern.
Kernpunkte:
OFL kombiniert die Prinzipien von Federated Learning und Online-Optimierung, um die Herausforderungen der Echtzeitdatenverarbeitung über verteilte Datenressourcen hinweg anzugehen.
Eine wesentliche Herausforderung ist der Schutz der Privatsphäre der Kunden, die am Lernprozess teilnehmen. Der Algorithmus verwendet differenzielle Privatsphäre, um dies zu gewährleisten.
Um die Auswirkungen des differentiell privaten Rauschens auf den Nutzen zu kontrollieren, entwickeln die Autoren eine gestörte Iterationsanalyse.
Außerdem zeigen sie, wie die Driftfehler aus lokalen Updates unter einer quasi-starken Konvexitätsbedingung effektiv gemanagt werden können.
Der Algorithmus wird unter einem (ϵ, δ)-DP-Budget analysiert und es wird eine dynamische Regretgrenze über den gesamten Zeithorizont abgeleitet, die den Einfluss der Schlüsselparameter und der Intensität der Änderungen in dynamischen Umgebungen quantifiziert.
Numerische Experimente validieren die Wirksamkeit des vorgeschlagenen Algorithmus.
Stats
Die Verlustfunktion f r,t
i ist L-glatt.
Die aggregierte Verlustfunktion f r ist µ-quasi-stark konvex.
Die Verlustfunktion f r,t
i hat beschränkten Gradienten mit Bg.
Es gibt eine Konstante σ, so dass ∥Pxr
X ⋆−P
xr
ξ
X ⋆∥≤√σ∥xr −xr
ξ∥.
Quotes
Keine relevanten Zitate identifiziert.