Kernkonzepte
In dieser Studie untersuchen wir die Anwendung von Transformer-basierten Modellen für die Emotionsklassifizierung in Textdaten. Wir trainieren und evaluieren mehrere vortrainierte Transformer-Modelle auf dem Emotion-Datensatz und zeigen, dass das vortrainierte Modell twitter-roberta-base-emotion eine Genauigkeit von 92% erreicht, obwohl nur eine relativ geringe Anzahl von Beobachtungen für das Training zur Verfügung stand.
Zusammenfassung
In dieser Studie wurde die Anwendung von Transformer-basierten Modellen für die Emotionsklassifizierung in Textdaten untersucht. Es wurden verschiedene Transformer-Modelle wie DistilBERT, ELECTRA, twitter-roberta-base-emotion und ein LSTM-Modell mit GloVe-Einbettungen trainiert und evaluiert.
Die Ergebnisse zeigen, dass das vortrainierte Modell twitter-roberta-base-emotion mit einer Genauigkeit von 92% am besten abschneidet, obwohl nur eine relativ geringe Anzahl von Beobachtungen für das Training zur Verfügung stand. Die Studie analysiert auch Faktoren, die die Leistung des Modells beeinflussen, wie die Feinabstimmung der Transformer-Schicht, die Trainierbarkeit der Schicht und die Vorverarbeitung der Textdaten. Die Analyse zeigt, dass häufig angewendete Techniken wie das Entfernen von Satzzeichen und Stoppwörtern die Modellleistung beeinträchtigen können, da die Stärke der Transformatoren im Verständnis kontextueller Beziehungen innerhalb des Texts liegt. Elemente wie Satzzeichen und Stoppwörter können immer noch Stimmung oder Betonung vermitteln, und deren Entfernung kann diesen Kontext stören.
Statistiken
Das twitter-roberta-base-emotion-Modell erreicht eine Genauigkeit von 92% auf dem Testdatensatz.
Das LawalAfeez/emotion_detection-Modell erreicht eine Genauigkeit von 89% auf dem Testdatensatz.
Das distilbert-base-uncased-Modell erreicht eine Genauigkeit von 89% auf dem Testdatensatz.
Das twitter-roberta-base-emotion-Modell ohne Vorverarbeitung erreicht eine Genauigkeit von 92% auf dem Testdatensatz.
Das electra-base-discriminator-Modell ohne Vorverarbeitung erreicht eine Genauigkeit von 91% auf dem Testdatensatz.
Das LSTM-Modell mit GloVe-Einbettungen erreicht eine Genauigkeit von 90% auf dem Testdatensatz.
Zitate
Keine relevanten Zitate gefunden.