Core Concepts
연방 학습을 통해 기반 모델을 효과적으로 미세 조정하여 데이터 프라이버시와 기반 모델의 가치를 보호할 수 있는 방법을 제안한다.
Abstract
이 논문은 연방 학습(Federated Learning, FL)을 통해 기반 모델(Foundation Model, FM)을 효과적으로 미세 조정하는 방법인 FedPFT(Federated Proxy Fine-Tuning)를 제안한다.
첫째, 하위 FM 구축 모듈은 층 단위 압축 방식을 사용하여 FM의 중요 뉴런을 강조함으로써 FM의 모든 층을 포괄적으로 미세 조정할 수 있게 한다.
둘째, 하위 FM 정렬 모듈은 FL 미세 조정 전후에 두 단계의 증류 과정을 수행하여 이론적 보장 하에 하위 FM과 FM 간의 정확한 정렬을 보장한다.
실험 결과 7개의 일반적으로 사용되는 데이터셋(4개의 텍스트 및 3개의 비전)에서 FedPFT가 기존 방법들보다 우수한 성능을 보였다.
Stats
기반 모델의 매개변수 수는 약 81M개이지만, FedPFT는 약 47M개의 매개변수만 사용한다.
FedPFT는 기존 방법 대비 약 절반 수준의 계산 비용과 통신 비용을 요구한다.
Quotes
"기반 모델을 다운스트림 작업에 적응시키는 것은 데이터 프라이버시와 귀중한 기반 모델을 보호하는 데 유망한 전략이다."
"기존 방법은 중간 층을 제거하여 FM을 충분히 미세 조정하지 못하고, 또한 FL 미세 조정 과정에서 gradient 오류가 누적되어 성능 저하를 초래한다."