Główne pojęcia
Die Yi-Modelle von 01.AI demonstrieren starke Leistungen durch hochwertige Datenqualität und kontinuierliches Training.
Statystyki
Für das Pretraining werden 3,1 Billionen Tokens von englischen und chinesischen Korpora verwendet.
Die Yi-Modelle erreichen eine starke Leistung auf verschiedenen Benchmarks.
Cytaty
"Unsere Vision für große Sprachmodelle ist es, sie zur nächsten Generation der Rechenplattform zu machen und die gesamte Gemeinschaft mit signifikant gesteigerter Intelligenz auszustatten."
"Wir glauben, dass die fortgesetzte Skalierung der Modellparameter unter Verwendung sorgfältig optimierter Daten zu noch stärkeren Spitzenmodellen führen wird."