核心概念
본 연구는 신경 기계 번역 모델의 지속적 학습 능력을 향상시키기 위해 모델 자체를 활용하여 합성 병렬 문장을 생성하고 이를 재현 메모리에 저장하는 방법을 제안한다.
摘要
이 논문은 신경 기계 번역 모델의 지속적 학습 능력 향상을 위한 새로운 접근법을 제안한다. 기존 신경 기계 번역 모델은 재현 학습 능력이 제한적이어서 이전에 학습한 언어 쌍에 대한 성능이 크게 저하되는 문제가 있었다.
제안 방법인 SG-Rep은 다음과 같은 3단계로 구성된다:
- 모델 자체를 활용하여 합성 병렬 문장 생성
- 생성된 문장의 품질 필터링
- 필터링된 문장을 재현 메모리에 저장
이를 통해 실제 학습 데이터를 저장할 필요 없이 모델의 지속적 학습 능력을 향상시킬 수 있다. 실험 결과, SG-Rep은 다양한 기존 방법들에 비해 우수한 성능을 보였다. 특히 언어 간 토큰 중복도가 낮은 상황에서도 효과적으로 성능 저하를 방지할 수 있었다.
统计
모델이 이전에 학습한 언어 쌍에 대한 BLEU 점수가 평균 8.75에 불과하여 극심한 망각 현상이 발생했다.
SG-Rep 방식을 적용하면 평균 BLEU 점수가 21.61로 크게 향상되었다.
引用
"본 연구는 신경 기계 번역 모델의 지속적 학습 능력 향상을 위해 모델 자체를 활용하여 합성 병렬 문장을 생성하고 이를 재현 메모리에 저장하는 새로운 접근법을 제안한다."
"실험 결과, SG-Rep은 다양한 기존 방법들에 비해 우수한 성능을 보였으며, 특히 언어 간 토큰 중복도가 낮은 상황에서도 효과적으로 성능 저하를 방지할 수 있었다."