toplogo
Sign In

Erkennung von Frauenfeindlichkeit durch Disambiguierung von pejorativem Sprachgebrauch in italienischen Tweets


Core Concepts
Die Disambiguierung von mehrdeutigen Wörtern, die als frauenfeindliche Schimpfwörter verwendet werden, kann die Erkennung von Frauenfeindlichkeit in Tweets verbessern.
Abstract
Die Studie untersucht, wie die Disambiguierung von möglicherweise pejorativ verwendeten Wörtern die Erkennung von Frauenfeindlichkeit in italienischen Tweets verbessern kann. Dafür wurde ein Korpus von 1.200 manuell annotierten Tweets erstellt, in dem Wörter auf Wortebene als pejorativ oder neutral und Sätze auf Satzebene als frauenfeindlich oder nicht-frauenfeindlich gekennzeichnet sind. Die Ergebnisse zeigen, dass das Hinzufügen von Informationen zur Pejoralität von Wörtern die Leistung von Klassifikationsmodellen zur Erkennung von Frauenfeindlichkeit deutlich verbessert. Dies deutet darauf hin, dass die Disambiguierung von möglicherweise pejorativ verwendeten Wörtern ein vielversprechender Zwischenschritt für die Erkennung von Frauenfeindlichkeit ist. Darüber hinaus wurde die Fähigkeit großer Sprachmodelle zur Disambiguierung pejorativ verwendeter Wörter untersucht. Die Analyse zeigt, dass es hier noch Verbesserungspotenzial gibt.
Stats
Die Verwendung mehrdeutiger Wörter, die als frauenfeindliche Schimpfwörter dienen können, führt zu einer hohen Zahl an Fehlklassifikationen bei der Erkennung von Frauenfeindlichkeit.
Quotes
"Die Disambiguierung von möglicherweise pejorativ verwendeten Wörtern ist ein vielversprechender Zwischenschritt für die Erkennung von Frauenfeindlichkeit." "Große Sprachmodelle haben noch Verbesserungspotenzial bei der Disambiguierung pejorativ verwendeter Wörter."

Key Insights Distilled From

by Aria... at arxiv.org 04-04-2024

https://arxiv.org/pdf/2404.02681.pdf
PejorativITy

Deeper Inquiries

Wie lässt sich die Disambiguierung von pejorativ verwendeten Wörtern auf andere Sprachen und Kulturen übertragen?

Die Disambiguierung von pejorativ verwendeten Wörtern kann auf andere Sprachen und Kulturen übertragen werden, indem ähnliche Methoden und Ansätze angewendet werden. Zunächst ist es wichtig, eine umfassende Liste von polysemen Wörtern zu erstellen, die als pejorative Epitheta dienen können, ähnlich wie im vorliegenden Kontext für die italienische Sprache. Diese Liste sollte Wörter enthalten, die sowohl eine neutrale als auch eine negative Konnotation haben und häufig in beleidigender Weise verwendet werden. Anschließend kann ein Korpus von Texten in der Zielsprache erstellt werden, der diese pejorativen Wörter enthält. Dieser Korpus sollte dann manuell annotiert werden, um die pejorative Verwendung der Wörter zu kennzeichnen und die Erkennung von Frauenfeindlichkeit auf Satzebene zu ermöglichen. Es ist wichtig, Experten mit einem interdisziplinären Hintergrund in Linguistik, Genderstudien und NLP für die Annotation einzubeziehen, um eine qualitativ hochwertige Annotation sicherzustellen. Die Entwicklung von Modellen zur Pejorativitätsdetektion und Frauenfeindlichkeitserkennung in anderen Sprachen erfordert möglicherweise eine Anpassung der lexikalischen und kulturellen Besonderheiten der jeweiligen Sprache. Darüber hinaus können Transferlernen und die Anpassung von Sprachmodellen an die spezifischen Merkmale der Zielsprache hilfreich sein, um die Disambiguierung von pejorativ verwendeten Wörtern in verschiedenen Sprachen und Kulturen zu verbessern.

Welche Auswirkungen haben andere Ansätze zur Verbesserung der Erkennung von Frauenfeindlichkeit, wie z.B. die Verwendung von Wissensbasen?

Die Verwendung von Wissensbasen zur Verbesserung der Erkennung von Frauenfeindlichkeit kann dazu beitragen, das Verständnis von pejorativ verwendeten Wörtern in verschiedenen Kontexten zu vertiefen. Wissensbasen enthalten Informationen über die Bedeutung und Verwendung von Wörtern, einschließlich ihrer Konnotationen und möglichen pejorativen Verwendungen. Durch die Integration von Wissensbasen in die Modelle zur Frauenfeindlichkeitserkennung können diese Modelle besser in der Lage sein, pejorative Sprache zu identifizieren und zu klassifizieren. Darüber hinaus können andere Ansätze wie das feinere Abstimmen von Sprachmodellen auf spezifische Aufgaben und Domänen sowie die Integration von semantischen Informationen aus Wissensbasen die Leistung von Modellen zur Erkennung von Frauenfeindlichkeit verbessern. Indem Modelle Zugriff auf umfangreiche Wissensbasen haben, können sie ein tieferes Verständnis für die Bedeutung und den Kontext von pejorativ verwendeten Wörtern entwickeln und somit präzisere Vorhersagen treffen.

Wie können Sprachmodelle so weiterentwickelt werden, dass sie pejorativ verwendete Wörter in Kontexten besser verstehen?

Um Sprachmodelle so weiterzuentwickeln, dass sie pejorativ verwendete Wörter in Kontexten besser verstehen, können verschiedene Ansätze verfolgt werden. Zunächst ist es wichtig, die Modelle mit ausreichend Trainingsdaten zu pejorativen Wörtern und deren Verwendung zu versorgen. Dies kann durch die Integration von spezifischen Datensätzen und Annotationen erfolgen, die die pejorative Verwendung von Wörtern kennzeichnen. Des Weiteren können Sprachmodelle durch feinere Abstimmung auf die Aufgabe der Pejorativitätsdetektion trainiert werden. Dies beinhaltet das Anpassen der Modelle an die spezifischen Merkmale und Konnotationen von pejorativ verwendeten Wörtern in verschiedenen Kontexten. Durch die Integration von Pejorativitätsinformationen in das Training können die Modelle lernen, subtilere Nuancen und Bedeutungen von Wörtern zu erfassen und diese in ihren Vorhersagen zu berücksichtigen. Darüber hinaus können Sprachmodelle mit semantischen Wissensbasen und lexikalischen Ressourcen angereichert werden, um ihr Verständnis von pejorativ verwendeten Wörtern zu verbessern. Indem die Modelle Zugriff auf umfangreiche Informationen über die Bedeutung und Verwendung von Wörtern haben, können sie präzisere und kontextbezogene Vorhersagen über die Pejorativität von Wörtern treffen.
0