핵심 개념
Durch eine theoretische Konvergenzanalyse des differentiell privaten föderierenden Lernens (DPFL) leiten wir eine Konvergenzschranke ab, die von der Anzahl der lokalen Iterationen τ abhängt. Wir verbessern die Leistung des föderierenden Lernens mit Differentialdatenschutz, indem wir dynamisch das optimale τ finden.
초록
In dieser Arbeit präsentieren wir einen Algorithmus für differentiell privates föderiertes Lernen mit adaptiven lokalen Iterationen (ALI-DPFL) in einem Szenario, in dem sowohl das Datenschutzbudget als auch die Kommunikationsrunden begrenzt sind.
Durch eine theoretische Konvergenzanalyse des DPFL leiten wir eine Konvergenzschranke ab, die von der Anzahl der lokalen Iterationen τ abhängt. Basierend darauf verbessern wir die Leistung des föderierenden Lernens mit Differentialdatenschutz, indem wir dynamisch das optimale τ finden.
Wir beweisen formal die Datenschutzgarantie des vorgeschlagenen Algorithmus mit der RDP-Technik und führen umfangreiche Experimente durch, die zeigen, dass ALI-DPFL bestehende Ansätze in ressourcenbeschränkten Szenarien deutlich übertrifft.
통계
Die Anzahl der lokalen Iterationen τ hat einen erheblichen Einfluss auf die Konvergenz des DPFL-Algorithmus.
Die optimale Anzahl der lokalen Iterationen τ* variiert je nach Verhältnis zwischen maximalen Kommunikationsrunden Rs und maximalen lokalen Iterationen Rc.
인용구
"Durch eine theoretische Konvergenzanalyse des differentiell privaten föderierenden Lernens (DPFL) leiten wir eine Konvergenzschranke ab, die von der Anzahl der lokalen Iterationen τ abhängt."
"Wir verbessern die Leistung des föderierenden Lernens mit Differentialdatenschutz, indem wir dynamisch das optimale τ finden."