본 연구는 대규모 언어 모델(LLM)의 기계 번역(MT) 성능 향상을 위한 새로운 문맥 학습(ICL) 방법론을 제안한다. 기존 ICL 방법은 무작위 선택이나 n-gram 기반 순위화 등을 사용하여 문맥 예시(ICE)를 선택했지만, 이는 번역 품질 향상에 한계가 있었다.
본 연구는 도메인 특화 품질 추정(QE) 모델을 활용하여 ICE 선택 과정을 안내함으로써 번역 성능을 향상시킨다. QE 모델은 참조 번역 없이도 번역 품질을 평가할 수 있어, 효율적인 ICE 선택이 가능하다.
제안 방법론은 세 가지 모드로 구현되었다:
실험 결과, 제안 방법론이 기존 ICL 방법과 fine-tuned mBART-50 모델을 모두 능가하는 성능을 보였다. 또한 제안 방법론은 계산 비용 측면에서도 효율적인 것으로 나타났다.
향후 연구에서는 다양한 언어쌍과 도메인에 대한 추가 실험, 다양한 특징 활용, 문맥 예시 순서 분석 등을 수행할 계획이다.
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Javad Pourmo... ב- arxiv.org 09-19-2024
https://arxiv.org/pdf/2406.07970.pdfשאלות מעמיקות