Die Studie untersuchte die Leistungsfähigkeit von vortrainierten Sprachmodellen wie BERT und GPT-3 bei der Erkennung und Klassifizierung von toxischen Nachrichten in Online-Spielen. Dafür wurde ein Datensatz von DOTA 2-Spielnachrichten gesammelt und in drei Kategorien eingeteilt: nicht-toxisch, mild-toxisch und toxisch.
Die Ergebnisse zeigen, dass das GPT-3-Modell mit einer Genauigkeit von 83% die beste Leistung bei der Erkennung von toxischen Nachrichten erzielte, gefolgt von BERT (Large-uncased) mit 82% und BERT (Base-uncased) mit 80% Genauigkeit. Die Studie kommt zu dem Schluss, dass vortrainierte Sprachmodelle großes Potenzial haben, um Probleme im Zusammenhang mit Toxizität in verschiedenen Online-Communitys und Spieleplattformen anzugehen.
Mögliche Erweiterungen der Studie wären die Erweiterung der Datensammlung auf weitere Spieleplattformen sowie die Untersuchung anderer Varianten von GPT und BERT.
翻譯成其他語言
從原文內容
arxiv.org
深入探究