Die Studie untersucht die Verwendung von Large Language Models (LLMs) zur Meinungsabbau in Online-Gesundheitsdiskursen. Es wird ein neuer Testdatensatz, Long COVID-Stance, vorgestellt, um die Leistung von LLMs bei der Erkennung von Ansprüchen und der Stellungnahme in Online-Gesundheitsgemeinschaften zu bewerten. Die Autoren betonen die Bedeutung von LLMs für die Automatisierung von Gesundheitsansprüchen und die Stellungnahmeerkennung. Es wird auch die Herausforderung der Modellierung der Stellung zwischen Paaren von Online-Gesundheitstexten diskutiert, wobei der Anspruch selbst tief implizit sein kann. Die Studie zeigt, dass GPT-4 signifikant besser abschneidet als frühere Arbeiten bei der Stellungserkennung ohne Vorbereitung. Es werden auch Fragen zu Stellungserkennung, Anspruchstypen und Textlängen als Fehlerquellen für das Modell identifiziert.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問