本研究旨在評估mBART和mT5模型在進行尼泊爾語摘要生成任務中的有效性。首先,通過網絡爬取從各種尼泊爾新聞門戶網站創建了一個摘要數據集。然後,對這些多語言模型進行了微調,使用不同的策略。最後,使用ROUGE評分和人工評估來評估微調模型的性能,確保生成的摘要是連貫且傳達了原意。
實驗結果顯示,4位量化的mBART模型搭配LoRA在生成準確和連貫的標題方面表現最佳,優於其他變體,包括量化的mT5模型。這突出了優化模型和技術以在不同語言環境中實現高質量摘要的重要性。為進一步提高摘要模型的有效性,可以考慮改善mT5模型的性能,探索替代多語言轉換器模型,並優化量化技術。
翻譯成其他語言
從原文內容
arxiv.org
深入探究