Der Artikel stellt BOBA, einen zweistufigen Algorithmus für föderiertes Lernen, vor, der die Herausforderungen von Etikettenverschiebung adressiert.
In der ersten Stufe wird ein robuster (c-1)-dimensionaler affiner Unterraum geschätzt, der die Verteilung der ehrlichen Gradienten approximiert. Dazu wird eine getrimmt rekonstruktionsbasierte Singulärwertzerlegung verwendet, die Byzantinische Gradienten ignoriert.
In der zweiten Stufe wird der ehrliche Simplex unter Verwendung von Serverdaten geschätzt. Kunden mit Gradienten außerhalb des ehrlichen Simplex werden als Byzantinisch eingestuft und verworfen.
Theoretisch wird gezeigt, dass BOBA einen Schätzfehler des optimalen Ordnungsgrößenbereichs aufweist und garantiert konvergiert. Empirisch übertrifft BOBA verschiedene Baseline-Algorithmen in Bezug auf Unverzerrtheit und Robustheit über diverse Modelle und Datensätze hinweg.
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы