Concepts de base
Existing NMT models struggle with e-commerce translation due to domain-specific challenges, but the G2ST approach using Large Language Models offers superior results.
Résumé
既存のNMTモデルは、eコマース翻訳において特定のドメインの課題に苦しんでいますが、Large Language Modelsを使用したG2STアプローチは優れた結果を提供しています。この研究では、eコマーステキストの特殊な書き方や専門用語に対処するための新しい手法が提案されています。具体的には、eコマース向けの専門用語とパラレルコーパスを収集し、G2STパラダイムを使用して一般的なNMTモデルをeコマース向けに転送する方法が示されています。実際のeコマースタイトルでの評価では、G2STアプローチが他の最先端のNMTモデルよりも優れた翻訳品質と堅牢性を示しています。
Stats
二つのドメイン関連リソース(中国語-英語バイリンガル用語ペアとeコマースドメイン用に注釈付きの平行コーパス)が収集されました。
G2STアプローチはQwen、LLaMA、GPT-3.5、さらにはGPT-4などの最先端NMTモデルと比較して上位の翻訳品質と堅牢性を示しました。
Citations
"Taking e-commerce as an example, the texts usually include amounts of domain-related words and have more grammar problems, which leads to inferior performances of current NMT methods."
"We propose a two-step fine-tuning paradigm (named G2ST) with self-contrastive semantic enhancement to transfer one general NMT model to the specialized NMT model for e-commerce."
"Extensive evaluations on real e-commerce titles demonstrate the superior translation quality and robustness of our G2ST approach, as compared with state-of-the-art NMT models such as LLaMA, Qwen, GPT-3.5, and even GPT-4."