本研究では、低リソース言語翻訳のためのMufu(Multilingual Fused Learning)手法を提案している。
Mufu prompts では、以下の要素を含む:
LLMは、これらの情報を活用して、入力の品質評価、多言語間の意味合わせ、関連する入力からの抜粋、不適切な箇所の修正などの推論を行う。これにより、低リソース言語の翻訳精度が大幅に向上する。
実験では、Mufu prompts を用いてファインチューニングしたモデルが、教師モデルや既存の大規模翻訳モデルを上回る性能を示した。特に低リソース言語の翻訳において顕著な改善が見られた。また、蒸留によりモデルの推論コストを下げつつ、低リソース言語翻訳の性能を維持できることも示された。
本手法は、多言語推論の応用例として位置づけられ、低リソース言語の支援に貢献できる可能性がある。ただし、補助翻訳の品質が極端に低い場合は性能が低下するなどの課題も残されている。
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Zheng Wei Li... às arxiv.org 09-24-2024
https://arxiv.org/pdf/2409.13949.pdfPerguntas Mais Profundas