Kernkonzepte
Die Verwendung von Deep Prompt Tuning in der Missbrauchssprache-Erkennung verbessert die Leistung und nutzt das Wissen von Pre-trained Language Models effektiv.
Zusammenfassung
Die Erkennung von Missbrauchssprache ist eine langjährige Herausforderung in sozialen Netzwerken.
Frühe Algorithmen verwendeten konventionelle Methoden, während tiefes Lernen und große PLMs wie BERT die Metriken verbesserten.
Das vorgeschlagene DPMN kombiniert Deep Prompt Tuning, Multi-Task-Lernen und Task-Head-Design.
Experimente zeigen, dass DPMN die besten Ergebnisse auf OLID, SOLID und AbuseAnalyzer erzielt.
Ablationsexperimente bestätigen die Wirksamkeit von Deep Prompt Tuning.
Statistiken
Die Macro F1-Scores von DPMN sind 0.8384, 0.9218 und 0.8165 auf den OLID, SOLID und AbuseAnalyzer Datensätzen.
Zitate
"Die Verwendung von Deep Prompt Tuning verbessert die Leistung der PLMs."
"DPMN erzielt herausragende Ergebnisse in der Missbrauchssprache-Erkennung."