Core Concepts
메모리 증강 어댑터를 통해 사전 학습된 기계 번역 모델의 생성 동작을 사용자가 제공한 텍스트 샘플에 맞춰 조정할 수 있다.
Abstract
이 논문은 사용자가 제공한 텍스트 샘플을 기반으로 사전 학습된 신경 기계 번역 모델의 생성 동작을 조정하는 메모리 증강 어댑터를 제안한다.
구체적으로:
다중 수준의 메모리를 구축하여 다양한 수준의 번역 패턴을 포착한다.
새로운 어댑터 아키텍처를 제안하여 모델 표현과 검색된 결과를 효과적으로 결합한다.
메모리 드롭아웃 훈련 전략을 제안하여 모델과 메모리 간의 과도한 의존성을 줄인다.
실험 결과, 제안 방법은 스타일 및 도메인 맞춤 실험에서 여러 대표적인 플러그 앤 플레이 기준선을 능가하는 성능을 보였다.
Stats
사용자가 제공한 텍스트 샘플을 기반으로 구축한 메모리는 모델의 생성 동작을 효과적으로 조정할 수 있다.
메모리 드롭아웃 훈련 전략은 모델과 메모리 간의 과도한 의존성을 줄일 수 있다.
Quotes
"메모리 증강 어댑터를 통해 사전 학습된 기계 번역 모델의 생성 동작을 사용자가 제공한 텍스트 샘플에 맞춰 조정할 수 있다."
"다중 수준의 메모리를 구축하여 다양한 수준의 번역 패턴을 포착할 수 있다."
"새로운 어댑터 아키텍처를 제안하여 모델 표현과 검색된 결과를 효과적으로 결합할 수 있다."