In dieser Arbeit präsentieren wir einen Algorithmus für differentiell privates föderiertes Lernen mit adaptiven lokalen Iterationen (ALI-DPFL) in einem Szenario, in dem sowohl das Datenschutzbudget als auch die Kommunikationsrunden begrenzt sind.
Durch eine theoretische Konvergenzanalyse des DPFL leiten wir eine Konvergenzschranke ab, die von der Anzahl der lokalen Iterationen τ abhängt. Basierend darauf verbessern wir die Leistung des föderierenden Lernens mit Differentialdatenschutz, indem wir dynamisch das optimale τ finden.
Wir beweisen formal die Datenschutzgarantie des vorgeschlagenen Algorithmus mit der RDP-Technik und führen umfangreiche Experimente durch, die zeigen, dass ALI-DPFL bestehende Ansätze in ressourcenbeschränkten Szenarien deutlich übertrifft.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies