Der Artikel stellt das Modell CTSM (Combining Trait and State Emotions for Empathetic Response Model) vor, das darauf abzielt, die Wahrnehmung und den Ausdruck von Emotionen in Dialogsystemen zu verbessern.
Psychologische Forschung zeigt, dass Emotionen statische Trait-Emotionen und dynamische Zustandsemotionen umfassen. Bisherige Ansätze behandelten diese Emotionstypen isoliert, was zu einer unvollständigen Wahrnehmung von Emotionen in Dialogen führte.
CTSM adressiert dieses Problem, indem es beide Emotionstypen modelliert. Dafür konstruiert es spezielle Emotionseinbettungen für Trait- und Zustandsemotionen und verwendet einen Emotions-Guidance-Modul, um die Wahrnehmungsfähigkeit zu verbessern. Außerdem nutzt es einen Cross-Contrastive-Learning-Decoder, um die Fähigkeit zum empathischen Ausdruck zu stärken.
Die Evaluationsergebnisse zeigen, dass CTSM die Leistung bisheriger Modelle übertrifft und genauere Emotionswahrnehmung sowie empathischere Antworten generiert.
To Another Language
from source content
arxiv.org
Viktige innsikter hentet fra
by Wang Yufeng,... klokken arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.15516.pdfDypere Spørsmål