핵심 개념
연합 학습 환경에서 도메인 일반화 성능을 향상시키기 위해 정규화 계층과 정규화 기법을 효율적으로 조립하는 방법을 제안한다.
초록
이 논문은 연합 학습 환경에서 도메인 일반화 문제를 해결하기 위한 새로운 방법을 제안한다.
- 연합 학습 환경에서는 각 클라이언트가 자신의 데이터만 가지고 있어 도메인 일반화가 어려운 문제가 있다.
- 이를 해결하기 위해 저자들은 개인화된 명시적 조립 정규화(PerXAN)와 안내 정규화 기법을 제안한다.
- PerXAN은 인스턴스 정규화와 배치 정규화를 명시적으로 조합하여 도메인 특정 특징을 제거하고 개인화된 모델을 학습한다.
- 안내 정규화 기법은 클라이언트 모델이 도메인 불변 표현을 직접 학습하도록 유도한다.
- 실험 결과, 제안 방법이 기존 방법들보다 PACS, Office-Home, Camelyon17 데이터셋에서 우수한 성능을 보였다.
통계
각 클라이언트는 자신의 데이터만 가지고 있어 도메인 일반화가 어려운 문제가 있다.
제안 방법은 개인화된 정규화 계층과 안내 정규화 기법을 통해 도메인 일반화 성능을 향상시킬 수 있다.
실험 결과, 제안 방법은 PACS, Office-Home, Camelyon17 데이터셋에서 기존 방법들보다 우수한 성능을 보였다.
인용구
"Domain shift is a formidable issue in Machine Learning that causes a model to suffer from performance degradation when tested on unseen domains."
"Federated Domain Generalization (FedDG) attempts to train a global model using collaborative clients in a privacy-preserving manner that can generalize well to unseen clients possibly with domain shift."
"To circumvent these challenges, here we introduce a novel architectural method for FedDG, namely gPerXAN, which relies on a normalization scheme working with a guiding regularizer."