ALSACE leverages the knowledge from selected teacher languages to guide and supervise other languages within the same multilingual pretrained language model, effectively mitigating language-level performance disparities without relying on additional labeled multilingual data.
다국어 사전학습 언어모델(mPLM)에서 언어 간 성능 격차를 해결하기 위해 적절한 교사 언어를 선택하고 교차 언어 자기 증류를 활용하여 언어 간 지식 격차를 완화한다.