Effiziente Verarbeitung und Analyse von Inhalten zur Gewinnung von Erkenntnissen: Eine Benchmarkstudie zur Erkennung von Hassrede über verschiedene Domänen hinweg
Große Sprachmodelle (LLMs) bieten einen erheblichen Vorteil gegenüber dem Stand der Technik bei der Erkennung von Hassrede, auch ohne vorheriges Finetuning. Die Leistung der Modelle hängt stark von der Verteilung der Etiketten im Trainingsdatensatz ab, wobei feinkörnige Hassrede-Etiketten bei kleinen Datensätzen von Vorteil sind, dieser Effekt aber bei größeren Datensätzen verschwindet.