Die Studie untersucht die Fähigkeiten von ChatGPT, verschiedene Arten von Medienverzerrungen zu erkennen, und vergleicht seine Leistung mit feinabgestimmten Sprachmodellen wie BART, ConvBERT und GPT-2.
Die Ergebnisse zeigen, dass ChatGPT in einigen Bereichen, wie der Erkennung von Hassrede und textbezogener Kontextverzerrung, ähnlich gut abschneidet wie die feinabgestimmten Modelle. Bei subtileren Formen der Verzerrung, wie Falschmeldungen, rassische und geschlechtsspezifische Verzerrungen sowie kognitive Verzerrungen, hat ChatGPT jedoch Schwierigkeiten und schneidet deutlich schlechter ab.
Die Autoren führen dies darauf zurück, dass die feinabgestimmten Modelle explizit darauf trainiert wurden, die Muster und Feinheiten zu erlernen, wie menschliche Bewerter Verzerrungen identifizieren. ChatGPT hingegen muss sich allein auf die allgemeinen Muster in seinen umfangreichen Trainingsdaten verlassen, ohne die spezifische Art und Weise der Datenbeschriftung zu lernen.
Die Studie bietet einen Einblick in die Stärken und Schwächen von ChatGPT bei der Erkennung von Medienverzerrungen und unterstreicht die Notwendigkeit weiterer Forschung, um die Fähigkeiten solcher Sprachmodelle in diesem Bereich zu verbessern und zu einem ausgewogeneren Informationsökosystem beizutragen.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Zehao Wen,Ra... a las arxiv.org 04-01-2024
https://arxiv.org/pdf/2403.20158.pdfConsultas más profundas