단어 정렬 정보를 활용한 선호도 최적화를 통해 LLM 기반 기계 번역 모델의 고질적인 문제인 오역 및 누락 현상을 완화할 수 있다.
본 논문에서는 BiLSTM 인코더와 Attention 메커니즘 기반 디코더를 결합한 새로운 Seq2Seq 모델을 제안하며, WMT14 데이터셋 실험 결과 Transformer 모델보다 우수한 번역 성능과 효율성을 보였다.
대규모 언어 모델(LLM)을 사용한 기계 번역 시스템은 문맥에 따라 의미가 달라지는 단어나 새로운 단어를 처리하는 데 어려움을 겪기 때문에, 본 논문에서는 인과 관계 기반 추론을 통해 검색된 정보의 정확성을 검증하고 번역에 활용하는 새로운 다중 에이전트 프레임워크인 CRAT를 제시하여 번역 정확도를 향상시키는 방법을 제시합니다.
QE-EBM이라는 새로운 기계 번역 훈련 방법을 제시하며, 이는 품질 추정 모델을 에너지 기반 손실 함수로 활용하여 번역 모델의 성능을 향상시킵니다. 특히 저자원 언어에서 뛰어난 성능을 보이며, 기존의 지도 학습 및 강화 학습 기반 방법보다 우수한 성능을 달성했습니다.