Durch eine theoretische Konvergenzanalyse des differentiell privaten föderierenden Lernens (DPFL) leiten wir eine Konvergenzschranke ab, die von der Anzahl der lokalen Iterationen τ abhängt. Wir verbessern die Leistung des föderierenden Lernens mit Differentialdatenschutz, indem wir dynamisch das optimale τ finden.
Ein privates Vorhersageprotokoll, das praktische Next-Token-Vorhersagen durch Projektion der Ausgabeverteilungen eines Ensembles von fein abgestimmten großen Sprachmodellen auf eine Menge um die Ausgabeverteilung eines öffentlichen Sprachmodells ermöglicht und dabei eine stärkere Datenschutzgarantie als die Ebene der Einzelstichprobe bietet.