Belangrijkste concepten
pfl-research ist ein schnelles, modulares und benutzerfreundliches Python-Framework zum Simulieren von Federated Learning (FL) und Private Federated Learning (PFL). Es unterstützt TensorFlow, PyTorch und nicht-neuronale Netzwerkmodelle und ist eng in modernste Datenschutzalgorithmen integriert.
Samenvatting
Das pfl-research-Framework wurde entwickelt, um die Produktivität der FL-Forschungsgemeinschaft deutlich zu steigern und das Testen von Hypothesen auf realistischen FL-Datensätzen zu ermöglichen, die zuvor zu ressourcenintensiv waren.
Das Framework bietet folgende Hauptmerkmale:
Geschwindigkeit: pfl-research ist 7-72 Mal schneller als andere gängige FL-Simulatoren, da es nur die Berechnung, nicht aber die Topologie des Federated Learnings simuliert.
Benutzerfreundliche verteilte Simulationen: pfl-research ermöglicht den nahtlosen Übergang von Einprozess- zu verteilten Simulationen ohne Codeänderungen. Die Skalierung erstreckt sich über mehrere Dimensionen: Anzahl der Prozesse, GPUs und Maschinen.
Integration von Datenschutz: pfl-research ist eng in modernste Datenschutzverfahren und -mechanismen integriert, was einen bequemen Arbeitsablauf für das Experimentieren mit PFL und das Kombinieren damit orthogonaler FL-Funktionen und -Algorithmen ermöglicht.
Unterstützung für nicht-gradientenbasiertes Training: pfl-research eignet sich auch für die Erforschung von Federated Learning mit Modellen, die Trainingsmethoden jenseits des Gradientenabstiegs erfordern, wie z.B. einige klassische ML-Algorithmen.
Vielfältige und einheitliche Benchmarks: pfl-research bietet eine Reihe von Benchmark-Setups, die eine umfassende Bewertung von FL-Algorithmen in verschiedenen Szenarien ermöglichen: Datensätze unterschiedlicher Domänen, IID/nicht-IID, ohne DP/mit zentraler DP.
Statistieken
Die Simulationen von pfl-research sind 7-72 Mal schneller als alternative Open-Source-FL-Simulatoren.
Citaten
Keine relevanten Zitate gefunden.