In dieser Arbeit wird die Aufgabe der Erkennung der Empfehlbarkeit in Konversationen definiert und untersucht. Die Autoren konstruieren einen neuen Datensatz namens JDDCRec, der Annotationen zur Empfehlbarkeit auf Äußerungsebene enthält.
Die Autoren vergleichen verschiedene Methoden zur Erkennung der Empfehlbarkeit unter Verwendung von vortrainierten Sprachmodellen (PLMs), einschließlich Zero-Shot-Prompt-Evaluation, Prompt-Learning und Soft-Prompt-Feinabstimmung. Die Ergebnisse zeigen, dass die Prompt-Learning- und Soft-Prompt-Feinabstimmungsmethoden vielversprechende Ergebnisse liefern und mit traditionellen Klassifizierungsmethoden vergleichbar sind.
Darüber hinaus untersuchen die Autoren den Einfluss von manuellen Prompts, die Leistung im Few-Shot-Lernen und den Einfluss der Prompt-Länge auf die Soft-Prompt-Feinabstimmung. Die Ergebnisse zeigen, dass diese Faktoren die Leistung der Empfehlbarkeitsidentifikation beeinflussen können.
Insgesamt zeigt diese Arbeit die Bedeutung der Erkennung der Empfehlbarkeit für Konversationssysteme und liefert erste Erkenntnisse zur Nutzung von PLMs für diese Aufgabe.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies