In dieser Arbeit präsentieren wir differentiell private Latente Diffusions-Modelle (DP-LDM), eine effiziente Methode zur Generierung hochqualitativer, differentiell privater Bilder.
Zunächst trainieren wir einen leistungsfähigen Autoencoder auf öffentlichen Daten, um eine kompakte Darstellung der Eingabebilder zu erlernen. Dann trainieren wir ein Diffusions-Modell auf den latenten Darstellungen dieser Bilder.
Anstatt das gesamte Diffusions-Modell mit DP-SGD feinfeinzustimmen, feintunen wir nur die Aufmerksamkeitsmodule (und Konditionierungseinbetter für bedingte Generierung) unter Verwendung von DP-SGD. Dadurch reduzieren wir die Anzahl der zu feintuenden Parameter um etwa 90% und erreichen einen besseren Datenschutz-Genauigkeits-Kompromiss.
Unsere Methode ermöglicht die Generierung realistischer, hochdimensionaler Bilder (256x256) unter Berücksichtigung von Textaufforderungen oder Klassenlabeln mit Datenschutzgarantien, was unseres Wissens bisher nicht versucht wurde. Unser Ansatz bietet eine vielversprechende Richtung für das Training leistungsfähigerer, aber effizienter trainierbarer, differentiell privater Diffusions-Modelle, die hochwertige DP-Bilder erzeugen.
To Another Language
from source content
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Saiyue Lyu,M... lúc arxiv.org 03-19-2024
https://arxiv.org/pdf/2305.15759.pdfYêu cầu sâu hơn