핵심 개념
Unser Ansatz S2FL verwendet eine adaptive Sliding-Modell-Split-Strategie und einen datenausgleichsbasierten Trainingsmechanismus, um die Genauigkeit und Effizienz von Split-Federated-Learning in nicht-IID-Szenarien zu verbessern.
초록
Der Artikel präsentiert einen neuartigen Ansatz für Split-Federated-Learning (SFL), genannt Sliding Split Federated Learning (S2FL), der eine adaptive Sliding-Modell-Split-Strategie und einen datenausgleichsbasierten Trainingsmechanismus verwendet.
Kernpunkte:
- S2FL teilt das globale Modell in drei Teile auf: den Client-seitigen Modellanteil, den gemeinsamen Modellanteil und den Server-seitigen Modellanteil.
- Die Fed-Server verwenden eine adaptive Sliding-Modell-Split-Strategie, um die Modellportionen dynamisch an die Rechenressourcen der Geräte anzupassen, um Unterschiede in der Trainingszeit zwischen Geräten auszugleichen.
- Der Main-Server verwendet einen datenausgleichsbasierten Trainingsmechanismus, um die hochgeladenen Merkmale basierend auf ihren Labels zu gruppieren, um die Leistungseinbußen durch Datenheterogenität zu verringern.
- Experimente zeigen, dass S2FL im Vergleich zu herkömmlichem SFL eine Verbesserung der Inferenzgenauigkeit um bis zu 16,5% und eine 3,54-fache Beschleunigung des Trainings erreichen kann.
통계
Die Trainingszeit jedes Geräts kann durch die Anpassung der Größe des Client-seitigen Modellteils an die Rechenressourcen des Geräts angeglichen werden.
Durch das Gruppieren der hochgeladenen Merkmale nach ihren Labels kann die Verteilung der Trainingsdaten im Server-seitigen Modell ausgeglichener gestaltet werden.
인용구
"S2FL verwendet eine adaptive Sliding-Modell-Split-Strategie und einen datenausgleichsbasierten Trainingsmechanismus, um die Genauigkeit und Effizienz von Split-Federated-Learning in nicht-IID-Szenarien zu verbessern."
"Experimente zeigen, dass S2FL im Vergleich zu herkömmlichem SFL eine Verbesserung der Inferenzgenauigkeit um bis zu 16,5% und eine 3,54-fache Beschleunigung des Trainings erreichen kann."