Die Schaffung des SIB-200-Datensatzes zielt darauf ab, die Evaluierung von natürlicher Sprachverarbeitung in vielen Sprachen zu verbessern und die Leistung von hoch- und niedrig-ressourcen Sprachen zu vergleichen.
Verbesserung von In-Context Learning durch Task-Definition-Extraktion und Experten-Ensemble.
SNIFFER ist ein multimodales großes Sprachmodell, das speziell für die Erkennung und Erklärung von Out-of-Context Fehlinformationen entwickelt wurde.
Chinesische Mixtral-Modelle verbessern die Leistung in chinesischen Aufgaben und zeigen Potenzial für zukünftige Forschung.
Das NoteLLM Framework nutzt große Sprachmodelle zur Verbesserung von Notizenempfehlungen durch Komprimierung von Notizen und Generierung von Hashtags/Kategorien.