Meta4XNLI ist ein mehrsprachiges paralleles Korpus mit Annotationen für die Erkennung und Interpretation von Metaphern in Spanisch und Englisch, das für die Untersuchung der Übertragbarkeit von Metaphern zwischen Sprachen und den Einfluss von Übersetzungen auf die Entwicklung mehrsprachiger annotierter Ressourcen verwendet werden kann.
Wir präsentieren das erste selbstüberwachte mehrsprachige Sprachmodell, das ausschließlich auf afrikanischen Sprachaufnahmen trainiert wurde. Das Modell hat aus fast 60.000 Stunden unmarkierter Sprachsegmente in 21 Sprachen und Dialekten, die in Subsahara-Afrika gesprochen werden, gelernt. Auf dem SSA-Teilsatz des FLEURS-102-Datensatzes zeigt unser Ansatz, der auf einer HuBERT-Basis-Architektur (0,09 Mrd.) basiert, im Vergleich zum w2v-bert-51-Vortrainingsmodell (0,6 Mrd.), das im FLEURS-Benchmark vorgeschlagen wurde, wettbewerbsfähige Ergebnisse für die ASR-Downstream-Aufgabe, wobei es jedoch effizienter ist, da es 7-mal weniger Daten und 6-mal weniger Parameter verwendet. Darüber hinaus übertrifft unser Ansatz im Kontext einer LID-Downstream-Aufgabe die FLEURS-Baseline-Genauigkeit um über 22%.
Diese Studie stellt einen übersetzten Datensatz für mehrsprachige Koreferenzauflösung (TransMuCoRes) in 31 südasiatischen Sprachen vor und evaluiert zwei End-to-End-Koreferenzauflösungsmodelle auf einem manuell annotierten Hindi-Datensatz.
Das Ziel des Universal NER-Projekts ist es, hochwertige, sprachübergreifend konsistente Annotationen bereitzustellen, um die mehrsprachige Forschung zur Namenserkennungsaufgabe zu erleichtern und zu standardisieren.
XLAVS-R ist ein mehrsprachiges Audio-Visuelles Sprachrepräsentationsmodell, das die Vorteile von begrenzten mehrsprachigen Audio-Visuellen Trainingsdaten maximiert, indem es auf mehrsprachigem Audio-Only-Vortraining aufbaut und bestehende Vortrainingsschemata vereinfacht. Es erzielt Spitzenleistungen bei der Spracherkennung und Sprachübersetzung in verrauschten Umgebungen.
Eine neue Methode zur Byte-Kodierung von Text, die auf Morphemen basiert, erzeugt kürzere Kodierungen für alle analysierten Sprachen und verbessert die Leistung und Effizienz mehrsprachiger Sprachmodelle.