이 논문은 신경 기계 번역 모델의 지속적 학습 능력 향상을 위한 새로운 접근법을 제안한다. 기존 신경 기계 번역 모델은 재현 학습 능력이 제한적이어서 이전에 학습한 언어 쌍에 대한 성능이 크게 저하되는 문제가 있었다.
제안 방법인 SG-Rep은 다음과 같은 3단계로 구성된다:
이를 통해 실제 학습 데이터를 저장할 필요 없이 모델의 지속적 학습 능력을 향상시킬 수 있다. 실험 결과, SG-Rep은 다양한 기존 방법들에 비해 우수한 성능을 보였다. 특히 언어 간 토큰 중복도가 낮은 상황에서도 효과적으로 성능 저하를 방지할 수 있었다.
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Michele Rest... ב- arxiv.org 03-21-2024
https://arxiv.org/pdf/2403.13130.pdfשאלות מעמיקות