Concetti Chiave
Ein einzelnes Modell kann verschiedene gesprochene Sprachverständnisaufgaben gemeinsam durchführen und dabei oft die Leistung aufgabenspezifischer Modelle übertreffen.
Sintesi
Die Studie stellt einen Ansatz für ein universelles gesprochenes Sprachverständnissystem (UniverSLU) vor, das verschiedene Aufgaben wie Sprachbefehlserkennung, Intentionsklassifikation, Emotionserkennung usw. gemeinsam lernt.
Zunächst wird das Modell mit einzelnen Tokenspezifizierern für Aufgabentyp, Sprache und Datensatz trainiert. Anschließend wird es mit natürlichsprachlichen Anweisungen, die die Aufgabe beschreiben und eine Liste möglicher Optionen enthalten, verfeinert.
Das UniverSLU-Modell übertrifft oder erreicht auf den meisten Aufgaben die Leistung aufgabenspezifischer Modelle. Es zeigt auch eine gewisse Übertragbarkeit auf neue Datensätze und Sprachen für bekannte Aufgabentypen. Allerdings hat es Schwierigkeiten, völlig neue Aufgabentypen ohne zusätzliches Training zu bewältigen.
Statistiche
Das UniverSLU-Modell erreicht auf 10 von 14 Klassifikationsaufgaben eine bessere Leistung als der Stand der Technik.
Auf Sequenzgenerierungsaufgaben erreicht das UniverSLU-Modell eine vergleichbare Leistung wie aufgabenspezifische Modelle.
Das UniverSLU-Modell übertrifft andere LLM-basierte Ansätze auf den getesteten Aufgaben.
Citazioni
"Ein einzelnes Modell kann verschiedene gesprochene Sprachverständnisaufgaben gemeinsam durchführen und dabei oft die Leistung aufgabenspezifischer Modelle übertreffen."
"Das UniverSLU-Modell übertrifft oder erreicht auf den meisten Aufgaben die Leistung aufgabenspezifischer Modelle."