Core Concepts
자원 제한적인 엣지 디바이스에서 연합 자기지도 학습을 수행하기 위해 계층별 학습 접근법인 LW-FedSSL을 제안합니다. LW-FedSSL은 서버 측 보정 및 표현 정렬 메커니즘을 통해 기존 연합 자기지도 학습 대비 자원 요구사항을 크게 낮추면서도 성능을 유지할 수 있습니다.
Abstract
이 논문은 연합 학습(FL) 환경에서 자기지도 학습(SSL)을 활용하는 방법을 다룹니다. 엣지 디바이스의 제한된 계산 및 통신 자원으로 인해 SSL과 FL 알고리즘의 높은 비용이 문제가 됩니다. 이를 해결하기 위해 저자들은 LW-FedSSL이라는 계층별 연합 자기지도 학습 접근법을 제안합니다.
LW-FedSSL의 핵심 구성요소는 다음과 같습니다:
서버 측 보정 메커니즘: 연합 학습 서버가 보조 데이터셋을 이용해 모델의 모든 기존 계층을 보정하여 계층 간 협업을 원활하게 합니다.
표현 정렬 메커니즘: 클라이언트의 지역 모델이 글로벌 모델의 표현과 정렬되도록 하여 서버 측 보정 메커니즘의 효과를 유지합니다.
이를 통해 LW-FedSSL은 기존 연합 자기지도 학습 대비 3.3배 낮은 메모리 요구사항, 3.2배 낮은 통신 비용을 보이면서도 성능을 유지할 수 있습니다. 또한 점진적 학습 접근법인 Prog-FedSSL을 제안하는데, 이는 기존 연합 자기지도 학습보다 성능이 우수하면서도 자원 요구사항이 낮습니다.
Stats
엣지 디바이스의 메모리 요구사항이 기존 연합 자기지도 학습 대비 3.3배 낮습니다.
엣지 디바이스의 총 통신 비용(다운로드 + 업로드)이 기존 연합 자기지도 학습 대비 3.2배 낮습니다.
Prog-FedSSL은 기존 연합 자기지도 학습 대비 1.8배 낮은 통신 비용을 보입니다.
Quotes
"LW-FedSSL은 기존 연합 자기지도 학습 대비 3.3배 낮은 메모리 요구사항, 3.2배 낮은 통신 비용을 보이면서도 성능을 유지할 수 있습니다."
"Prog-FedSSL은 기존 연합 자기지도 학습보다 성능이 우수하면서도 자원 요구사항이 낮습니다."