核心概念
대규모 언어 모델은 문맥 정보만으로도 저자원 언어에서 효과적으로 다양한 작업을 수행할 수 있다. 이를 통해 고자원 언어와 저자원 언어 간의 격차를 줄일 수 있다.
摘要
이 연구는 대규모 언어 모델(LLM)의 저자원 언어 이해 능력을 향상시키기 위한 다양한 방법을 탐구한다. 주요 내용은 다음과 같다:
- 문맥 내 레이블 정렬은 대부분의 언어에서 성능을 저하시키며, 균일한 고자원 언어 레이블이 가장 좋은 결과를 보인다.
- 문맥 내 질의 정렬은 레이블 정렬보다 효과적이며, 저자원 언어 이해 향상을 위한 대안이 될 수 있다.
- 형식 일관성 향상은 고자원 언어에서 성능 향상을 보이지만, 저자원 언어에서는 효과가 미미하다.
- 문맥 내 학습(ICL)과 교차 언어 문맥 내 학습(X-ICL)은 저자원 언어 이해 향상에 중요하며, 특히 기계 번역 시스템이 없는 경우 유용하다.
統計資料
문맥 내 레이블 정렬은 대부분의 언어에서 성능을 88.46% 저하시킨다.
문맥 내 질의 정렬은 56.25%의 언어에서 성능을 향상시킨다.
引述
"문맥 내 학습(ICL)과 교차 언어 문맥 내 학습(X-ICL)은 저자원 언어 이해 향상에 중요하며, 특히 기계 번역 시스템이 없는 경우 유용하다."