Die Studie untersuchte die Leistungsfähigkeit von vortrainierten Sprachmodellen wie BERT und GPT-3 bei der Erkennung und Klassifizierung von toxischen Nachrichten in Online-Spielen. Dafür wurde ein Datensatz von DOTA 2-Spielnachrichten gesammelt und in drei Kategorien eingeteilt: nicht-toxisch, mild-toxisch und toxisch.
Die Ergebnisse zeigen, dass das GPT-3-Modell mit einer Genauigkeit von 83% die beste Leistung bei der Erkennung von toxischen Nachrichten erzielte, gefolgt von BERT (Large-uncased) mit 82% und BERT (Base-uncased) mit 80% Genauigkeit. Die Studie kommt zu dem Schluss, dass vortrainierte Sprachmodelle großes Potenzial haben, um Probleme im Zusammenhang mit Toxizität in verschiedenen Online-Communitys und Spieleplattformen anzugehen.
Mögliche Erweiterungen der Studie wären die Erweiterung der Datensammlung auf weitere Spieleplattformen sowie die Untersuchung anderer Varianten von GPT und BERT.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Daniel Fesal... at arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.15458.pdfDeeper Inquiries