Die Studie untersuchte die Leistungsfähigkeit von vortrainierten Sprachmodellen wie BERT und GPT-3 bei der Erkennung und Klassifizierung von toxischen Nachrichten in Online-Spielen. Dafür wurde ein Datensatz von DOTA 2-Spielnachrichten gesammelt und in drei Kategorien eingeteilt: nicht-toxisch, mild-toxisch und toxisch.
Die Ergebnisse zeigen, dass das GPT-3-Modell mit einer Genauigkeit von 83% die beste Leistung bei der Erkennung von toxischen Nachrichten erzielte, gefolgt von BERT (Large-uncased) mit 82% und BERT (Base-uncased) mit 80% Genauigkeit. Die Studie kommt zu dem Schluss, dass vortrainierte Sprachmodelle großes Potenzial haben, um Probleme im Zusammenhang mit Toxizität in verschiedenen Online-Communitys und Spieleplattformen anzugehen.
Mögliche Erweiterungen der Studie wären die Erweiterung der Datensammlung auf weitere Spieleplattformen sowie die Untersuchung anderer Varianten von GPT und BERT.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문