Centrala begrepp
HumanEval-XL introduces a comprehensive benchmark for multilingual code generation, addressing the gap in evaluating cross-lingual NL generalization of LLMs.
Statistik
HumanEval-XLは、23の自然言語と12のプログラミング言語を結びつける22,080のプロンプトから成る包括的な評価基準を導入します。