核心概念
Große Sprachmodelle können effektiv eine neue Sprache durch Anleitung lernen.
統計
DIPMT++ verbessert die Leistung von GPT-4 von 0 auf 16 BLEU für Chinesisch-Zhuang-Übersetzung.
DIPMT++ erreicht 32 BLEU für Zhuang-Chinesisch-Übersetzung.
引用
"Unsere Experimente zeigen, dass LLMs schnell eine unbekannte Sprache durch angemessenes ICL erfassen können."
"DIPMT++ hat das Potenzial, die menschliche Übersetzung von unterrepräsentierten Sprachen zu verbessern."