核心概念
Verschiedene Methoden zum Abrufen von Übersetzungsbeispielen aus einem Übersetzungsspeicher werden systematisch untersucht und ihre Auswirkungen auf die Übersetzungsleistung verschiedener neuronaler Übersetzungsarchitekturen analysiert.
要約
Die Studie untersucht den Einfluss unterschiedlicher Methoden zum Abrufen von Übersetzungsbeispielen aus einem Übersetzungsspeicher (Translation Memory, TM) auf die Leistung verschiedener neuronaler Übersetzungsarchitekturen.
Zunächst werden verschiedene Komponenten des Retrievalprozesses analysiert, wie Domänenauswahl, Filterung und Ranking. Es werden Metriken wie Abdeckung, Relevanz und Länge der abgerufenen Beispiele betrachtet, um deren Qualität zu bewerten.
Anschließend werden drei neuronale Übersetzungsarchitekturen systematisch mit unterschiedlichen Retrievalmethoden kombiniert und deren Auswirkungen auf die Übersetzungsqualität (BLEU, COMET) untersucht:
- Neuronale Fuzzy-Augmentierung (NFA): Ein autoregressiver Ansatz, der die abgerufenen Beispiele als zusätzlichen Kontext verwendet.
- TM-LevT: Ein editbasierter Ansatz, der versucht, Teile der abgerufenen Beispiele in der Übersetzung wiederzuverwenden.
- In-Context Learning (ICL) mit großen Sprachmodellen: Nutzt die abgerufenen Beispiele direkt als Teil des Eingabekontexts.
Die Experimente zeigen, dass die Wahl der Retrievalmethode einen Einfluss auf die Übersetzungsleistung hat, der je nach Architektur variiert. Optimierungen wie eine höhere Abdeckung der Eingabe oder Diversität der Beispiele erweisen sich als hilfreich, insbesondere wenn die besten Übereinstimmungen von geringer Qualität sind. Außerdem kann eine Vereinfachung des Retrievalprozesses durch Weglassen der Filterung bei einigen Architekturen zu besseren Ergebnissen führen.
統計
Die Abdeckung der Eingabe durch die abgerufenen Beispiele hat einen positiven Einfluss auf die Übersetzungsleistung.
Eine höhere Relevanz der Beispiele führt ebenfalls zu besseren Übersetzungen.
Die durchschnittliche Länge der Beispiele hat einen geringeren Einfluss.
引用
"Retrieval-Augmented Language Models and Translation Models are getting a lot of traction (see (Li et al., 2022a) for a recent review)."
"Our experiments show that the choice of the retrieval technique impacts the translation scores, with variance across architectures."
"We also discuss the effects of increasing the number and diversity of examples, which are mostly positive across the board."