Die Studie untersucht, ob natürlichsprachliche Erklärungen von Sprachmodellen oder durchsuchte Passagen aus Wikipedia effektiver sind, um Menschen bei der Überprüfung der Richtigkeit von Informationen zu unterstützen.
Die Ergebnisse zeigen, dass Erklärungen von Sprachmodellen wie ChatGPT die Genauigkeit der Überprüfung durch Menschen im Vergleich zur Baseline ohne zusätzliche Informationen signifikant verbessern können. Allerdings neigen die Teilnehmer dazu, sich zu sehr auf die Erklärungen der Sprachmodelle zu verlassen, auch wenn diese falsch sind.
Um diese Überverlässigkeit zu reduzieren, wurde untersucht, ob kontrastive Erklärungen, die sowohl Argumente dafür als auch dagegen präsentieren, sowie eine Kombination von Erklärungen und durchsuchten Passagen hilfreich sein können. Kontrastive Erklärungen konnten die Überverlässigkeit auf falsche Erklärungen zwar reduzieren, waren aber insgesamt nicht signifikant besser als die alleinige Präsentation der durchsuchten Passagen. Die Kombination von Erklärungen und durchsuchten Passagen brachte ebenfalls keine zusätzlichen Vorteile gegenüber den durchsuchten Passagen allein.
Insgesamt zeigt die Studie, dass natürlichsprachliche Erklärungen von Sprachmodellen zwar Zeit sparen können, aber mit der Gefahr der Überverlässigkeit einhergehen. Die Präsentation der durchsuchten Passagen bleibt daher die zuverlässigere Methode, um die Richtigkeit von Informationen zu überprüfen.
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Chen... om arxiv.org 04-03-2024
https://arxiv.org/pdf/2310.12558.pdfDiepere vragen