本論文では以下の内容が説明されている:
機械翻訳を使ったドキュメントの英語化と、MS MARCOパッセージの4つのアフリカ言語への翻訳について説明している。
翻訳訓練(Translate-Train)手法を使ったColBERT-Xモデルの訓練手順について説明している。具体的には、XLM-RoBERTaの事前学習モデルから始め、マスク言語モデル(MLM)の fine-tuning、Translate-Trainによる検索モデルの fine-tuning、さらにJH POLOによる in-domain fine-tuningの手順を踏んでいる。
公式提出結果と非公式実験結果を示し、各手順の効果を分析している。機械翻訳の質が低いアフリカ言語においても、Translate-Trainが有効であることを示している。一方で、JH POLOによる追加の fine-tuningは必ずしも有効ではないことも明らかにしている。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Eugene Yang,... alle arxiv.org 04-15-2024
https://arxiv.org/pdf/2404.08134.pdfDomande più approfondite