Trotz einiger Fortschritte bleiben in der föderativen domänenübergreifenden Generalisierung signifikante Leistungslücken, insbesondere bei der Bewertung mit einer großen Anzahl von Clients, hoher Client-Heterogenität oder realistischeren Datensätzen.
FLEX ist ein flexibler und anpassbarer Rahmen für föderiertes Lernen, der Forschern maximale Flexibilität bei der Durchführung von Experimenten zum föderiertem Lernen bietet. Durch die Bereitstellung von anpassbaren Funktionen für Datenverteilung, Datenschutzparameter und Kommunikationsstrategien ermöglicht FLEX Forschern die Entwicklung neuartiger Techniken für föderiertes Lernen.
TablePuppet ist ein generisches Framework für das relationale föderierte Lernen (RFL), das den Lernprozess in zwei Schritte unterteilt: (1) Lernen über Join (LoJ) und (2) Lernen über Union (LoU). LoJ schiebt das Lernen auf die vertikalen Tabellen, die zusammengeführt werden, und LoU schiebt das Lernen weiter auf die horizontalen Partitionen jeder vertikalen Tabelle.
Das vorgeschlagene FedACG-Verfahren überträgt den globalen Momentumterm an die Clients, um deren lokale Aktualisierungen besser an den globalen Gradienten auszurichten und so die Konvergenz zu beschleunigen.
Batch-Normalisierung (BN) kann in vielen föderativen Lerneinstellungen die Leistung von Gruppe-Normalisierung (GN) übertreffen, insbesondere wenn die Kommunikationsfrequenz gering ist oder der Grad der Nicht-IID-Verteilung nicht extrem ist. Wir schlagen einen einfachen Ansatz namens FIXBN vor, der die negativen Auswirkungen von BN in föderativem Lernen reduziert, während die positiven Auswirkungen beibehalten werden.
Eine neue Aggregatorfunktion, die auf der Minimierung des mehrdimensionalen Huber-Verlusts basiert, bietet eine optimale Abhängigkeit von der Angriffsrate, Robustheit gegenüber ungleichmäßigen Datensätzen und keine Notwendigkeit der genauen Kenntnis der Angriffsrate.
BOBA ist ein effizienter zweistufiger Algorithmus, der die Herausforderungen von Etikettenverschiebung in föderiertem Lernen adressiert, indem er eine robuste Schätzung des ehrlichen Unterraums und des ehrlichen Simplex durchführt. BOBA ist theoretisch garantiert unverzerrt und optimal robust gegenüber Byzantinischen Angriffen.
Die Kernaussage dieses Artikels ist, dass die Autoren eine neuartige Methode, FedPLVM, entwickelt haben, um die Herausforderungen des föderierter Lernens mit heterogenen Daten zu adressieren. FedPLVM verwendet ein zweistufiges Prototypencluster-Verfahren, um die Varianzinformationen der Daten zu erfassen, und führt einen neuartigen α-Spärlichkeits-Prototypenverlust ein, um die Lernleistung über verschiedene Domänen hinweg auszugleichen.