pfl-research ist ein schnelles, modulares und benutzerfreundliches Python-Framework zum Simulieren von Federated Learning (FL) und Private Federated Learning (PFL). Es unterstützt TensorFlow, PyTorch und nicht-neuronale Netzwerkmodelle und ist eng in modernste Datenschutzalgorithmen integriert.
In dieser Arbeit wird ein neuartiger hybrider byzantinischer Angriff auf Federated Learning vorgestellt, der die Topologie neuronaler Netze ausnutzt, um effiziente und schwer erkennbare Angriffe zu entwickeln. Der Angriff kombiniert einen aggressiven, aber erkennbaren Teil mit einem stillen, aber akkumulierenden Teil, um verschiedene Verteidigungsmechanismen zu umgehen.
Iteratives Parameterabgleich (IPA) ist eine neue Methode zum Zusammenführen von Peer-Modellen, die auf unabhängigen Datensätzen trainiert wurden. IPA ist vorteilhaft in Szenarien mit getrennten Klassen, erreicht den Stand der Technik bei homogenen Datenaufteilungen und hat wettbewerbsfähige Konvergenz bei heterogenen Datenaufteilungen.
Das Ziel ist es, Pareto-optimale Lösungen für die Hyperparameter von SecureBoost zu finden, die einen optimalen Kompromiss zwischen Nutzenverlust, Trainingskosten und Datenschutzlücken erreichen.
Keine einzelne Federated-Learning-Methode ist in allen Leistungsmetriken überlegen. Die Algorithmen weisen unterschiedliche Stärken und Schwächen auf, die bei der Auswahl berücksichtigt werden müssen.
Durch den Einsatz von parametereffizientem Finetuning können große vortrainierte Modelle effizient in Federated Learning-Systemen eingesetzt werden, ohne die Kommunikationskosten zu erhöhen. Dies ermöglicht eine deutliche Leistungssteigerung gegenüber herkömmlichen Ansätzen.
Eine neue Methode, die "Dual-Personalizing Adapter" (FedDPA), wird vorgestellt, um sowohl allgemeine als auch personalisierte Kenntnisse für eine umfassendere Modellleistung auf verschiedenen Aufgaben zu erlernen.
Ein innovativer Ansatz für horizontales Federated Gradient Boosting, der nicht auf dem Austausch von Gradienten basiert und gleichzeitig die Privatsphäre schützt und die Kommunikationseffizienz durch lernbare Lernraten der aggregierten Baumensembles erhöht.
Dieser Artikel präsentiert ein theoretisches Rahmenwerk zur Analyse von Aggregationsregeln für Federated Domain Adaptation (FDA) und schlägt zwei neuartige Aggregationsverfahren vor - Federated Gradient Projection (FedGP) und ein automatisches Gewichtungsschema. Diese Methoden verbessern die Zielleistung deutlich bei Domänenverschiebung und Datenmangel.
Ein neuartiges Federated-Learning-Trainingsframework für heterogene Umgebungen, das asynchrone Lernalgorithmen und Pruningtechniken integriert, um die Ineffizienzen traditioneller Federated-Learning-Algorithmen in Szenarien mit heterogenen Geräten sowie das Staleness-Problem und die unzureichende Ausbildung bestimmter Clients in asynchronen Algorithmen anzugehen.