언어 모델이 다양한 유형의 언어적 변이에 적응하는 데 어려움을 겪는 이유를 이해하고, 이를 해결하기 위한 개입 방안을 제시한다.
기존 대규모 언어 모델을 새로운 언어로 효과적으로 적응시키는 방법론을 제시하고, 9개 언어와 2개 규모의 모델에 대한 실험 결과를 보여줌.
지속적인 사전 학습은 무감독 도메인 적응 문제에서 강력한 성능을 보이며, 도메인 불변 표현 학습 방법보다 안정적이다.
PEMA는 언어 모델의 모든 가중치에 대한 접근 없이도 효율적으로 미세 조정할 수 있는 기법이다. 이를 통해 데이터 소유자와 모델 소유자 간의 정보 공유를 최소화하면서도 언어 모델의 성능을 향상시킬 수 있다.