Sprachmodelle können durch Feintunning auf einem speziellen Datensatz darin unterstützt werden, in Dialogen beim vorgegebenen Thema zu bleiben und von Ablenkungen abzulenken.
Aktuelle Sprachmodelle generieren Text, der die gemeinsame Verständnisgrundlage zwischen Mensch und Maschine nicht ausreichend herstellt, im Gegensatz zu menschlichen Gesprächsteilnehmern.
Durch die Nutzung von ungelabelten Daten im Zielbereich und den Einsatz von Hilfstasks zur Generierung und Auswahl von Dialogzuständen kann die Leistung von Zero-Shot Dialogue State Tracking Modellen deutlich verbessert werden.
Ein Framework für schnelle und genaue Intentklassifizierung in dialogorientierten Systemen, das die Unsicherheit des Intentklassifikators in spezifische Klärungsfragen umwandelt, um den wahren Nutzerintent zuverlässig zu ermitteln.
Eine robuste und adaptive prototypische Lernmethode (RAP) wird vorgestellt, um diskriminative Darstellungen zu lernen, die für Cluster geeignet sind und sowohl eine starke Kompaktheit innerhalb der Cluster als auch eine große Trennung zwischen den Clustern aufweisen.