In dieser Studie wird ein Ansatz namens EmotionIC vorgestellt, der Emotionen in Gesprächen effizient erkennen kann. EmotionIC besteht aus drei Hauptkomponenten:
Identity Masked Multi-Head Attention (IMMHA): Erfasst globale kontextuelle Abhängigkeiten zwischen Gesprächsteilnehmern, indem es identitätsbasierte Aufmerksamkeitsmechanismen verwendet.
Dialogue-based Gated Recurrent Unit (DiaGRU): Extrahiert lokale kontextuelle Informationen, die auf Redner- und zeitlichen Abhängigkeiten basieren.
Skip-Chain Conditional Random Field (SkipCRF): Modelliert explizit komplexe emotionale Interaktionen zwischen Gesprächsteilnehmern auf Klassenebene.
Die Ergebnisse zeigen, dass EmotionIC die Leistung der aktuellen State-of-the-Art-Modelle auf vier Benchmark-Datensätzen deutlich übertrifft. Die Ablationsstudien bestätigen, dass die einzelnen Module von EmotionIC die emotionale Trägheit und Ansteckung effektiv modellieren können.
To Another Language
from source content
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Yingjian Liu... lúc arxiv.org 03-21-2024
https://arxiv.org/pdf/2303.11117.pdfYêu cầu sâu hơn