이 연구는 저자원 언어의 정신 건강 예측 과제를 위한 두 가지 접근법을 제안합니다.
첫째, 모델 불가지론적 메타 학습 방법을 사용하여 신속한 적응과 언어 간 전이를 달성합니다. 실험 결과, 메타 학습 모델이 표준 fine-tuning 방법보다 우수한 성능을 보였습니다. mBERT와 XLM-R 대비 각각 18%와 0.8% 향상된 macro F1 점수를 달성했습니다.
둘째, 대규모 언어 모델(LLM)의 in-context 학습 기능을 활용하여 스와힐리어 정신 건강 예측 과제에 대한 정확도를 평가했습니다. 스와힐리어 프롬프트가 교차 언어 프롬프트보다 우수했지만 영어 프롬프트보다는 낮은 성능을 보였습니다. 이를 통해 교차 언어 전이는 주의 깊게 설계된 프롬프트 템플릿과 예시를 통해 달성할 수 있음을 확인했습니다.
To Another Language
from source content
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Zita Lifelo,... ที่ arxiv.org 04-16-2024
https://arxiv.org/pdf/2404.09045.pdfสอบถามเพิ่มเติม