Khái niệm cốt lõi
Ein differentiell privater verteilter stochastischer Optimierungsalgorithmus mit zeitlich variierenden Stichprobengrößen wird vorgestellt, der sowohl die Konvergenz des Algorithmus als auch die differenzielle Privatsphäre mit einem endlichen kumulativen Datenschutzbudget ε für eine unendliche Anzahl von Iterationen gleichzeitig gewährleistet.
Tóm tắt
Der Artikel präsentiert zwei differentiell private verteilte stochastische Optimierungsalgorithmen mit zeitlich variierenden Stichprobengrößen, die sowohl die Ausgabe- als auch die Gradientenperturbation verwenden.
Kernpunkte:
- Durch die Methode der zeitlich variierenden Stichprobengrößen wird das Datenschutzniveau erhöht und die differenzielle Privatsphäre mit einem endlichen kumulativen Datenschutzbudget ε für eine unendliche Anzahl von Iterationen nachgewiesen.
- Die fast sichere und mittlere quadratische Konvergenz des Algorithmus wird selbst dann erreicht, wenn die hinzugefügten Datenschutzrauschen eine zunehmende Varianz aufweisen.
- Die mittlere quadratische Konvergenzrate des Algorithmus wird angegeben und es wird gezeigt, wie sich das hinzugefügte Datenschutzrauschen auf die Konvergenzrate auswirkt.
- Numerische Beispiele, einschließlich des verteilten Trainings auf einem Benchmark-Maschinenlern-Datensatz, werden präsentiert, um die Effizienz und Vorteile der Algorithmen zu demonstrieren.
Thống kê
Die Sensitivität des Ausgabeabbilds q in der k-ten Iteration erfüllt:
∆k ≤ {
Cα0/γ0, k = 1;
∑k-2l=0 ∏k-1t=l+1(1 - βt) Cαl/γl, k > 1.
Trích dẫn
Keine relevanten Zitate identifiziert.