Wie beeinflusst die Größe des Kontexts die Vorhersagen der Modelle?
Die Größe des Kontexts hat einen signifikanten Einfluss auf die Vorhersagen der Modelle. Gemäß der Untersuchung in der vorliegenden Studie wurde erwartet, dass eine Erhöhung der Kontextgröße zu genaueren Vorhersagen führen würde. Allerdings zeigte sich ein entgegengesetztes Ergebnis. Die Leistung der Modelle in Bezug auf Pluralität und Bestimmtheit nahm mit zunehmender Kontextgröße ab. Dies war besonders ausgeprägt bei der Bestimmtheitsvorhersage im Vergleich zur Pluralitätsvorhersage. Eine mögliche Erklärung für diesen Effekt könnte sein, dass ein breiterer Kontext zwar nützliche Informationen für die Vorhersage liefert, aber auch Verwirrung stiften kann. Da sich das Modell nur auf einen kleinen Teil des Zieltextes konzentriert (in diesem Fall das Nomen), fällt es ihm möglicherweise schwer, nützliche Informationen aus der Darstellung eines breiten Kontextes zu extrahieren und diese zur Vorhersage des Nomen-Labels zu nutzen.
Inwieweit helfen sich die Vorhersagen von Pluralität und Bestimmtheit gegenseitig?
Es wurde festgestellt, dass die Vorhersagen von Pluralität und Bestimmtheit sich gegenseitig erheblich unterstützen können. Durch die gleichzeitige Vorhersage beider Aspekte, anstatt sie separat zu betrachten, konnten die Modelle deutlich bessere Leistungen erzielen. Dies wurde durch die Ergebnisse der 4-Wege-Vorhersage im Vergleich zur separaten binären Vorhersage bestätigt. Die gemeinsame Vorhersage führte zu einer signifikanten Verbesserung der Leistung der Modelle. Beispielsweise erreichte RoBERTa in der gemeinsamen Vorhersage einen gewichteten F1-Score von 72,14, während der gewichtete F1-Score bei separaten binären Vorhersagen auf 70,36 sank. Dies deutet darauf hin, dass die Informationen, die für die Vorhersage der Pluralität und Bestimmtheit eines Nomens erforderlich sind, voneinander profitieren und zu genaueren Vorhersagen führen können, wenn sie gemeinsam betrachtet werden.
Welche Auswirkungen hat die Explizitheit auf das Verhalten der Modelle?
Die Explizitheit, d.h. ob die Pluralität und Bestimmtheit eines Nomens im Text explizit ausgedrückt werden, hat einen signifikanten Einfluss auf das Verhalten der Modelle. Die Modelle zeigten eine bessere Leistung bei expliziten Ausdrücken im Vergleich zu impliziten Ausdrücken. Dies wurde durch die Analyse der BERT-basierten Modelle auf implizite und explizite Ausdrücke bestätigt. Die Ergebnisse zeigten, dass alle Modelle besser auf explizite Ausdrücke abschnitten. Interessanterweise war der Unterschied in der Leistung zwischen expliziten und impliziten Ausdrücken bei der Pluralitätsvorhersage größer als bei der Bestimmtheitsvorhersage. Darüber hinaus zeigte BERT-wwm eine signifikant bessere Leistung bei expliziten Ausdrücken im Vergleich zu anderen Modellen. Dies deutet darauf hin, dass die explizite Darstellung von Pluralität und Bestimmtheit im Text den Modellen hilft, genauere Vorhersagen zu treffen.
0
Table des matières
Computational Modelling of Plurality and Definiteness in Chinese Noun Phrases
Computational Modelling of Plurality and Definiteness in Chinese Noun Phrases
Wie beeinflusst die Größe des Kontexts die Vorhersagen der Modelle?
Inwieweit helfen sich die Vorhersagen von Pluralität und Bestimmtheit gegenseitig?
Welche Auswirkungen hat die Explizitheit auf das Verhalten der Modelle?