Die Studie untersucht die Verwendung von Large Language Models (LLMs) zur Meinungsabbau in Online-Gesundheitsdiskursen. Es wird ein neuer Testdatensatz, Long COVID-Stance, vorgestellt, um die Leistung von LLMs bei der Erkennung von Ansprüchen und der Stellungnahme in Online-Gesundheitsgemeinschaften zu bewerten. Die Autoren betonen die Bedeutung von LLMs für die Automatisierung von Gesundheitsansprüchen und die Stellungnahmeerkennung. Es wird auch die Herausforderung der Modellierung der Stellung zwischen Paaren von Online-Gesundheitstexten diskutiert, wobei der Anspruch selbst tief implizit sein kann. Die Studie zeigt, dass GPT-4 signifikant besser abschneidet als frühere Arbeiten bei der Stellungserkennung ohne Vorbereitung. Es werden auch Fragen zu Stellungserkennung, Anspruchstypen und Textlängen als Fehlerquellen für das Modell identifiziert.
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Joseph Gatto... pada arxiv.org 03-07-2024
https://arxiv.org/pdf/2403.03336.pdfPertanyaan yang Lebih Dalam