Durch den Einsatz einer neuartigen kontrastiven Verlustfunktion, die menschliche Begründungen in den Lernprozess einbezieht, können die Erklärungen von Textklassifizierungsmodellen deutlich verbessert werden, ohne ihre Leistung wesentlich zu beeinträchtigen.
Ein hybrides Instanzfilterungsframework (BO O S TAU G) basierend auf vortrainierten Sprachmodellen kann die Leistung bestehender Textaugmentierungsmethoden signifikant verbessern, indem es den Featureraum-Shift der generierten Augmentierungsinstanzen reduziert.
DiLM destilliert einen Textdatensatz in ein Sprachmodell, um informative synthetische Trainingsdaten zu generieren, die für das Training verschiedener Modelle unabhängig von deren Worteinbettungsgewichten verwendet werden können.
Große Sprachmodelle zeigen zwar Spitzenleistungen in Nullschuss- und Wenig-Schuss-Einstellungen, aber kleinere, feiner abgestimmte Sprachmodelle können sie bei der Textklassifizierung immer noch übertreffen.
CrossTune ist ein neuer Ansatz zur effizienten Anpassung von Sprach-Großmodellen für Textklassifizierungsaufgaben mit wenigen Trainingsbeispielen. CrossTune nutzt die semantischen Informationen der Klassenbeschreibungen, um die Aufmerksamkeit des Modells auf relevante Aspekte des Eingabetextes zu lenken, ohne aufwendige Prompt-Suche durchführen zu müssen.
Das vorgeschlagene Explainable Active Learning (XAL) Framework ermutigt Klassifizierer, ihre Schlussfolgerungen zu rechtfertigen und unerklärbare Daten zu erkunden, um die Leistung in Textklassifizierungsaufgaben mit geringen Ressourcen zu verbessern.
Einflussanalyse kann als Feedback verwendet werden, um die Leistung von Textklassifizierungsmodellen für subjektive Aufgaben wie Hassrede-Erkennung, Standpunktklassifizierung, Ironie- und Sarkasmuserkennung zu verbessern.
Effiziente Text-Label-Übereinstimmung für Extreme Multi-Label-Textklassifizierung durch MatchXML.
Anwendung von LSTM und BERT in der Textklassifizierung für präzise Produktkategorisierung im Einzelhandel.