核心概念
結合基於 Transformer 的上下文語言模型(如 XLM-R)和神經網路,可以有效提升越南語自然語言推論的效能,尤其在處理需要有效利用資源的應用程式時,更顯優勢。
摘要
文獻資訊:
Nguyen, D. V., Huynh, T. V., Nguyen, K. V., & Nguyen, N. L. (2024). Transformer-Based Contextualized Language Models Joint with Neural Networks for Natural Language Inference in Vietnamese. In Springer Nature 2021 LATEX template. arXiv:2411.13407v1 [cs.CL].
研究目標:
本研究旨在探討如何結合基於 Transformer 的上下文語言模型和神經網路,以提升越南語自然語言推論的效能。
研究方法:
本研究使用多種上下文語言模型(CLM),包括 XLM-R、mBERT、infoXLM 和 PhoBERT,並將其與卷積神經網路(CNN)和雙向長短期記憶網路(BiLSTM)等神經網路模型結合,建構越南語自然語言推論模型。研究使用 ViNLI 資料集進行實驗,並以準確率和宏觀 F1 分數作為評估指標。
主要發現:
- 結合 XLM-R 和神經網路的模型在越南語自然語言推論任務中表現最佳,其 F1 分數在基準資料集中高達 82.78%。
- 相較於僅使用 PhoBERT、mBERT 或 XLM-R 進行微調,結合上下文語言模型和神經網路的模型在 F1 分數方面均有顯著提升。
- 上下文向量相較於非上下文向量,在準確率方面有 37.74±15.17% 的顯著提升。
- 越南語自然語言推論任務對於 one-shot learning 來說仍具挑戰性,使用 ChatGPT 模型進行 one-shot learning 的實驗結果顯示,準確率和 F1 分數分別下降了 37% 和 39.5%。
主要結論:
- 結合上下文語言模型和神經網路是一種簡單卻有效的方法,可以提升越南語自然語言推論的效能。
- 選擇合適的詞嵌入模型對於提升模型效能至關重要。
- ViNLI 資料集仍存在挑戰,需要進一步研究以提升模型在該資料集上的效能。
研究意義:
本研究為越南語自然語言推論提供了一種新的方法,並證明了結合上下文語言模型和神經網路的有效性。研究結果有助於推動越南語自然語言處理的發展。
研究限制與未來方向:
- 本研究僅使用了 ViNLI 資料集進行實驗,未來可以使用更多越南語自然語言推論資料集進行驗證。
- 未來可以探討結合其他神經網路模型或調整模型架構,以進一步提升模型效能。
- 可以進一步研究如何提升 one-shot learning 在越南語自然語言推論任務中的效能。
統計資料
結合 XLM-R 和神經網路的模型在基準資料集中取得了高達 82.78% 的 F1 分數。
相較於僅使用 PhoBERT 進行微調,結合 XLM-R 和神經網路的模型在 F1 分數方面提升了 6.58%。
相較於僅使用 mBERT 進行微調,結合 XLM-R 和神經網路的模型在 F1 分數方面提升了 19.08%。
相較於僅使用 XLM-R 進行微調,結合 XLM-R 和神經網路的模型在 F1 分數方面提升了 0.94%。
上下文向量相較於非上下文向量,在準確率方面有 37.74±15.17% 的提升。
使用 ChatGPT 模型進行 one-shot learning 的實驗結果顯示,準確率下降了約 37%,F1 分數下降了約 39.5%。
XLM-R large 模型需要 2GB 的 VRAM,mBERT 需要 837MB,PhoBERT 需要 1529MB。
引述
"The highest F1 score in this experiment, up to 82.78% in the benchmark dataset (ViNLI)."
"That combination has consistently demonstrated superior performance compared to fine-tuning strong pre-trained language models like PhoBERT (+6.58%), mBERT (+19.08%), and XLM-R (+0.94%) in terms of F1-score."
"By comparing contextualized vectors generated by the language model with non-contextualized vectors, we archive the outperformance of contextualized vectors by 37.74±15.17% in accuracy."
"Furthermore, we experiment with one-shot learning with the chatGPT model and gain a performance decrease by 37 ± 10% accuracy and 39.5 ± 11.5% in F1 score."