Core Concepts
Eine umfassende Überprüfung von LLM-basierten Multi-Turn-Dialogsystemen und deren Anpassung an nachgelagerte Aufgaben.
Abstract
Die Umfrage bietet einen Überblick über Forschung zu Multi-Turn-Dialogsystemen, insbesondere solchen, die auf großen Sprachmodellen basieren. Es werden bestehende LLMs, Anpassungsmethoden, Fortschritte in offenen und aufgabenorientierten Dialogsystemen sowie zukünftige Forschungsschwerpunkte behandelt.
Einführung in Multi-Turn-Dialogsysteme und deren Unterteilung in ODD und TOD.
Vergleich von regelbasierten und abrufbasierten Dialogsystemen mit LLM-basierten Ansätzen.
Vorstellung von verschiedenen LLMs und deren Strukturen.
Diskussion über Feinabstimmungsmethoden wie Full Fine-Tuning und Parameter-efficient Fine-Tuning.
Erklärung von Prompt-Engineering-Methoden wie Prompt Tuning und Tuning-free Prompting.
Darstellung von Pipeline-basierten Aufgabenorientierten Dialogsystemen.
Stats
Viele Multi-Turn-Dialogsysteme basieren auf tiefen neuronalen Netzwerken.
Die Leistung von Multi-Turn-Dialogsystemen wurde durch vorab trainierte LLMs signifikant verbessert.
LLMs wie GPT-3.5 und LLaMA haben die Dialogsysteme weiterentwickelt.
Quotes
"Multi-Turn-Dialogsysteme können in TOD- und ODD-Systeme unterteilt werden."
"Die Verwendung von Adapters in der Feinabstimmung hat sich als effektive Methode erwiesen."