In dieser Studie wird ein neuartiger Ansatz zur Erstellung von Kontrastsets für den Stanford Natural Language Inference (SNLI) Datensatz vorgestellt. Dabei werden Verben, Adverbien und Adjektive in den Hypothesen automatisch durch Synonyme ersetzt, um die ursprüngliche Bedeutung beizubehalten.
Die Untersuchungen zeigen, dass das ELECTRA-small Modell zwar eine Genauigkeit von 89,9% auf dem Standard-SNLI-Datensatz erreicht, seine Leistung auf dem Kontrastset jedoch auf 72,5% abfällt - ein Rückgang von 17%. Dies deutet darauf hin, dass das Modell eher auf oberflächliche Muster als auf ein tiefes Sprachverständnis setzt.
Um die Leistung des Modells auf dem Kontrastset zu verbessern, wurde es mit einem speziell erstellten Kontrasttrainings-Datensatz nachtrainiert. Dadurch konnte die Genauigkeit auf dem Kontrastset auf 85,5% gesteigert werden. Diese Ergebnisse unterstreichen die Notwendigkeit ausgewogenerer Datensätze in NLI-Aufgaben, die die Vielfalt sprachlicher Ausdrücke berücksichtigen.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies