이 논문은 연합학습(Federated Learning) 환경에서 레이블 편향성 문제를 다룬다. 레이블 편향성은 각 클라이언트가 일부 클래스의 데이터만 가지고 있는 비IID 상황을 의미한다. 이 상황에서 기존의 강인한 집계 규칙(Robust Aggregation Rules, AGRs)은 선택 편향과 취약성 문제를 겪게 된다.
논문에서는 이러한 문제를 해결하기 위해 BOBA라는 효율적인 두 단계 방법을 제안한다.
1단계에서는 트리밍된 재구성 손실을 최소화하여 정직한 클라이언트 gradient의 부분 공간을 강인하게 추정한다. 이를 통해 바이저틴 gradient의 영향을 최소화한다.
2단계에서는 서버 데이터를 활용하여 정직한 심플렉스의 정점을 추정하고, 비정상적인 라벨 분포를 가진 클라이언트를 제거한다. 이를 통해 정직한 gradient는 최소한의 교란만 받고, 바이저틴 gradient는 약화되거나 제거된다.
이론적으로 BOBA는 최적 수준의 강인성을 보장하며, 실험적으로도 다양한 모델과 데이터셋에서 편향성과 강인성이 우수한 것으로 나타났다.
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Wenxuan Bao,... às arxiv.org 03-21-2024
https://arxiv.org/pdf/2208.12932.pdfPerguntas Mais Profundas