이 논문은 1개에서 52개의 언어로 대규모 다국어 모델을 미세 조정하여 다국어 작업을 위해 필요한 언어의 수를 조사한다. 언어의 수가 증가함에 따라 다국어 벤치마크에 대한 모델의 행동을 조사하고 언어 노출 및 유사성 관점에서 결과를 논의한다.
실험 결과, 소수의 언어를 사용하는 것보다 더 많은 언어를 사용하면 정확도가 향상될 수 있지만 일부 이상치 및 수익 체감이 있다. 52개 언어 중에는 다국어 미세 조정을 위한 최적의 언어 수에 대한 일관된 답변이 없다. 최적의 언어 수는 언어 유사성과 하류 평가에 따라 달라진다. 다국어 미세 조정의 영향은 다국어 성능을 향상 또는 저해할 수 있으며, 이는 벤치마크와 관련 언어에 따라 달라진다.
이 연구는 작업, 벤치마크, 언어 및 평가 지표에 대한 더 자세한 검토의 필요성을 강조한다. 향후 연구에서는 더 일관된 실험 연구가 필요하다.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Shaoxiong Ji... klokken arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.04850.pdfDypere Spørsmål