핵심 개념
MELA introduces a multilingual benchmark for linguistic acceptability, highlighting the importance of in-language training data for cross-lingual transfer and syntax-related tasks.
초록
MELA is a benchmark for linguistic acceptability judgment across 10 languages.
The dataset includes 48K samples covering various language families.
LLMs like GPT-4 perform similarly to supervised XLM-R on MELA.
In-language training data is crucial for acceptability judgments and syntax-related tasks.
Probing experiments show improved performance on syntax tasks after training on MELA.
The dataset aims to fill the gap in multilingual benchmarks for linguistic tasks.
통계
MELA는 10개 언어에 걸쳐 언어 수용성 판단을 위한 벤치마크를 소개합니다.
데이터셋은 다양한 언어 패밀리를 포함한 48,000개의 샘플을 포함합니다.
GPT-4와 같은 LLM은 MELA에서 감독된 XLM-R과 유사한 성능을 보입니다.
언어별 훈련 데이터는 수용성 판단 및 구문 관련 작업에 중요합니다.
프로빙 실험은 MELA에서 훈련 후 구문 작업에서 성능 향상을 보여줍니다.
이 데이터셋은 언어 작업에 대한 다국어 벤치마크의 공백을 채우기 위해 목적을 두고 있습니다.
인용구
"Our results show that GPT-4 performs on par with fine-tuned XLM-R."
"Results of probing indicate that training on MELA improves the performance of XLM-R on syntax-related tasks."