In dieser Arbeit wird die Aufgabe der Erkennung der Empfehlbarkeit in Konversationen definiert und untersucht. Die Autoren konstruieren einen neuen Datensatz namens JDDCRec, der Annotationen zur Empfehlbarkeit auf Äußerungsebene enthält.
Die Autoren vergleichen verschiedene Methoden zur Erkennung der Empfehlbarkeit unter Verwendung von vortrainierten Sprachmodellen (PLMs), einschließlich Zero-Shot-Prompt-Evaluation, Prompt-Learning und Soft-Prompt-Feinabstimmung. Die Ergebnisse zeigen, dass die Prompt-Learning- und Soft-Prompt-Feinabstimmungsmethoden vielversprechende Ergebnisse liefern und mit traditionellen Klassifizierungsmethoden vergleichbar sind.
Darüber hinaus untersuchen die Autoren den Einfluss von manuellen Prompts, die Leistung im Few-Shot-Lernen und den Einfluss der Prompt-Länge auf die Soft-Prompt-Feinabstimmung. Die Ergebnisse zeigen, dass diese Faktoren die Leistung der Empfehlbarkeitsidentifikation beeinflussen können.
Insgesamt zeigt diese Arbeit die Bedeutung der Erkennung der Empfehlbarkeit für Konversationssysteme und liefert erste Erkenntnisse zur Nutzung von PLMs für diese Aufgabe.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Zhefan Wang,... at arxiv.org 03-28-2024
https://arxiv.org/pdf/2403.18628.pdfDeeper Inquiries