核心概念
Ein differentiell privater verteilter stochastischer Optimierungsalgorithmus mit zeitlich variierenden Stichprobengrößen wird vorgestellt, der sowohl die Konvergenz des Algorithmus als auch die differenzielle Privatsphäre mit einem endlichen kumulativen Datenschutzbudget ε für eine unendliche Anzahl von Iterationen gleichzeitig gewährleistet.
摘要
Der Artikel präsentiert zwei differentiell private verteilte stochastische Optimierungsalgorithmen mit zeitlich variierenden Stichprobengrößen, die sowohl die Ausgabe- als auch die Gradientenperturbation verwenden.
Kernpunkte:
- Durch die Methode der zeitlich variierenden Stichprobengrößen wird das Datenschutzniveau erhöht und die differenzielle Privatsphäre mit einem endlichen kumulativen Datenschutzbudget ε für eine unendliche Anzahl von Iterationen nachgewiesen.
- Die fast sichere und mittlere quadratische Konvergenz des Algorithmus wird selbst dann erreicht, wenn die hinzugefügten Datenschutzrauschen eine zunehmende Varianz aufweisen.
- Die mittlere quadratische Konvergenzrate des Algorithmus wird angegeben und es wird gezeigt, wie sich das hinzugefügte Datenschutzrauschen auf die Konvergenzrate auswirkt.
- Numerische Beispiele, einschließlich des verteilten Trainings auf einem Benchmark-Maschinenlern-Datensatz, werden präsentiert, um die Effizienz und Vorteile der Algorithmen zu demonstrieren.
統計資料
Die Sensitivität des Ausgabeabbilds q in der k-ten Iteration erfüllt:
∆k ≤ {
Cα0/γ0, k = 1;
∑k-2l=0 ∏k-1t=l+1(1 - βt) Cαl/γl, k > 1.
引述
Keine relevanten Zitate identifiziert.