In dieser Studie wird ein neuartiger Ansatz zur Erstellung von Kontrastsets für den Stanford Natural Language Inference (SNLI) Datensatz vorgestellt. Dabei werden Verben, Adverbien und Adjektive in den Hypothesen automatisch durch Synonyme ersetzt, um die ursprüngliche Bedeutung beizubehalten.
Die Untersuchungen zeigen, dass das ELECTRA-small Modell zwar eine Genauigkeit von 89,9% auf dem Standard-SNLI-Datensatz erreicht, seine Leistung auf dem Kontrastset jedoch auf 72,5% abfällt - ein Rückgang von 17%. Dies deutet darauf hin, dass das Modell eher auf oberflächliche Muster als auf ein tiefes Sprachverständnis setzt.
Um die Leistung des Modells auf dem Kontrastset zu verbessern, wurde es mit einem speziell erstellten Kontrasttrainings-Datensatz nachtrainiert. Dadurch konnte die Genauigkeit auf dem Kontrastset auf 85,5% gesteigert werden. Diese Ergebnisse unterstreichen die Notwendigkeit ausgewogenerer Datensätze in NLI-Aufgaben, die die Vielfalt sprachlicher Ausdrücke berücksichtigen.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Manish Sanwa... at arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01569.pdfDeeper Inquiries