핵심 개념
BOBA ist ein effizienter zweistufiger Algorithmus, der die Herausforderungen von Etikettenverschiebung in föderiertem Lernen adressiert, indem er eine robuste Schätzung des ehrlichen Unterraums und des ehrlichen Simplex durchführt. BOBA ist theoretisch garantiert unverzerrt und optimal robust gegenüber Byzantinischen Angriffen.
초록
Der Artikel stellt BOBA, einen zweistufigen Algorithmus für föderiertes Lernen, vor, der die Herausforderungen von Etikettenverschiebung adressiert.
In der ersten Stufe wird ein robuster (c-1)-dimensionaler affiner Unterraum geschätzt, der die Verteilung der ehrlichen Gradienten approximiert. Dazu wird eine getrimmt rekonstruktionsbasierte Singulärwertzerlegung verwendet, die Byzantinische Gradienten ignoriert.
In der zweiten Stufe wird der ehrliche Simplex unter Verwendung von Serverdaten geschätzt. Kunden mit Gradienten außerhalb des ehrlichen Simplex werden als Byzantinisch eingestuft und verworfen.
Theoretisch wird gezeigt, dass BOBA einen Schätzfehler des optimalen Ordnungsgrößenbereichs aufweist und garantiert konvergiert. Empirisch übertrifft BOBA verschiedene Baseline-Algorithmen in Bezug auf Unverzerrtheit und Robustheit über diverse Modelle und Datensätze hinweg.
통계
Die Verteilung der ehrlichen Gradienten konzentriert sich auf einen (c-1)-dimensionalen Unterraum.
Die Schätzung des ehrlichen Simplex hat einen Fehler der Größenordnung O(ϵ^2 + β^2δ^2), wobei β der Anteil Byzantinischer Kunden und δ die äußere Variation ist.
인용구
"BOBA ist unverzerrt. Ohne Angriffe bewahrt BOBA alle ehrlichen Gradienten, was zu einem Schätzfehler führt, der nicht von der äußeren Variation δ abhängt."
"BOBA hat eine optimale Ordnungsrobustheit. Bei Angriffen entspricht der Schätzfehler von BOBA der optimalen Ordnung in Bezug auf die äußere Variation δ, während IID-Algorithmen nur O(ϵ^2 + δ^2) garantieren, selbst wenn β = 0."