이 논문은 대형 언어 모델(LLM)의 강력한 번역 능력을 활용하여 기존 기계 번역 모델의 성능을 향상시키는 MT-PATCHER 프레임워크를 제안한다.
첫째, 학생 모델의 현재 번역 능력을 고려하여 학생 모델의 번역 오류를 선별적으로 식별하고 수정하는 지식 선별 단계를 제안한다. 이를 통해 기존 지식 증류 방식의 비효율성을 해결한다.
둘째, LLM의 강력한 언어 능력을 활용하여 학생 모델의 잠재적 오류를 예측하고 다양한 문맥을 합성하는 지식 확장 단계를 제안한다. 이를 통해 기존 지식 증류 방식의 제한적인 적용 범위를 극복한다.
실험 결과, MT-PATCHER는 기존 지식 증류 방식에 비해 효율적이고 효과적으로 기계 번역 모델의 성능을 향상시킬 수 있음을 보여준다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Jiahuan Li,S... at arxiv.org 03-15-2024
https://arxiv.org/pdf/2403.09522.pdfDeeper Inquiries