In dieser Arbeit präsentieren wir einen Algorithmus für differentiell privates föderiertes Lernen mit adaptiven lokalen Iterationen (ALI-DPFL) in einem Szenario, in dem sowohl das Datenschutzbudget als auch die Kommunikationsrunden begrenzt sind.
Durch eine theoretische Konvergenzanalyse des DPFL leiten wir eine Konvergenzschranke ab, die von der Anzahl der lokalen Iterationen τ abhängt. Basierend darauf verbessern wir die Leistung des föderierenden Lernens mit Differentialdatenschutz, indem wir dynamisch das optimale τ finden.
Wir beweisen formal die Datenschutzgarantie des vorgeschlagenen Algorithmus mit der RDP-Technik und führen umfangreiche Experimente durch, die zeigen, dass ALI-DPFL bestehende Ansätze in ressourcenbeschränkten Szenarien deutlich übertrifft.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Xinpeng Ling... о arxiv.org 03-26-2024
https://arxiv.org/pdf/2308.10457.pdfГлибші Запити