NMT와 LLM 기반 MT 모델의 다양한 가설에서 MBR 디코딩을 사용하여 최종 번역을 선택함으로써 번역 성능을 향상시켰다.
대규모 언어 모델은 제로샷 작업에 대해 잘 보정되지 않는 것으로 알려져 있다. 이를 해결하기 위해 Anti-Language Model (Anti-LM) 디코딩 목적 함수를 제안하여 소스 언어 편향을 줄이고 목표 언어 생성을 개선한다.
메모리에서 검색한 예시를 활용하여 신경망 기계 번역 성능을 향상시킬 수 있다.
형태론 모델링, 주의 집중 증강, 데이터 증강 기법을 결합하여 저자원 언어의 기계 번역 성능을 향상시킬 수 있다.
대규모 언어 모델의 등장으로 기계 번역 분야에 새로운 전기가 마련되었으며, 이를 활용한 다양한 시나리오와 방법론이 제시되고 있다.
KazParC는 카자흐어, 영어, 러시아어, 터키어 간 기계 번역을 위한 최초이자 최대 규모의 공개 병렬 말뭉치이며, Tilmash는 이 말뭉치로 학습된 우수한 성능의 신경망 기계 번역 모델이다.
문맥 내 예시 선택 시 구문 정보를 활용하면 기계 번역 성능을 향상시킬 수 있다.
인공 언어를 활용한 실험을 통해 통사적 유사성과 의미적 유사성이 비지도 기계 번역의 성공에 미치는 영향을 분석하였다. 통사적 유사성만으로는 충분하지 않으며, 복잡한 의미적 의존성이 비지도 기계 번역의 핵심적인 요인임을 밝혔다.
다국어 번역 모델의 디코더 표현이 이중언어 번역 모델에 비해 일관적으로 더 낮은 등방성을 보이며, 이는 언어별 정보를 모델링하는 데 많은 표현 용량을 사용하기 때문인 것으로 나타났다.
본 연구는 신경 기계 번역 모델의 지속적 학습 능력을 향상시키기 위해 모델 자체를 활용하여 합성 병렬 문장을 생성하고 이를 재현 메모리에 저장하는 방법을 제안한다.