toplogo
Sign In

Ein ganzheitlicher Indikator der Polarisierung zur Messung von Online-Sexismus


Core Concepts
Ein skalierbarer Indikator, der die Toxizität gegenüber männlicher und weiblicher Identität sowie gegenüber individuellen männlichen und weiblichen Personen in einer Online-Gemeinschaft misst.
Abstract
Die Studie entwickelt einen ganzheitlichen Indikator, der die Ebene des Sexismus in Online-Gemeinschaften quantifizieren kann. Der Indikator kombiniert überwachte und unüberwachte NLP-Techniken, um drei Schlüsselparameter zu berechnen: eingebettete Toxizität, Häufigkeitsrang und Einbettungsbias. Der Indikator unterscheidet klar zwischen Toxizität gegenüber männlicher/weiblicher Identität und Toxizität gegenüber individuellen männlichen/weiblichen Personen. Dies ermöglicht eine genauere Zuschreibung und verhindert Fehlinterpretationen, wenn eine Gemeinschaft viel Kritik an bestimmten männlichen/weiblichen Politikern übt, ohne dass dies notwendigerweise auf Toxizität gegenüber der Geschlechtsidentität hinweist. Die Ergebnisse bestätigen die bekannte Toxizität von Subreddits wie r/TheRedPill und r/MGTOW gegenüber Frauen. Darüber hinaus zeigt sich, dass eine frauenexklusive Dating-Community wie r/FemaleDatingStrategy gleichzeitig gegenüber Männern und Frauen toxisch sein kann. Der Indikator kann auch auf andere Formen der Polarisierung in sozialen Medien angewendet werden, indem die Attributwörter entsprechend angepasst werden.
Stats
"Die Online-Tendenz des Manosphäre und des feministischen Diskurses in sozialen Netzwerken erfordert ein ganzheitliches Maß für das Ausmaß des Sexismus in einer Online-Gemeinschaft." "Unser skalierbarer Indikator kann eine vergleichbare Gesamtmessung der Toxizität gegenüber männlicher und weiblicher Identität sowie gegenüber individuellen männlichen und weiblichen Personen liefern."
Quotes
"Unser skalierbarer Indikator kann eine vergleichbare Gesamtmessung der Toxizität gegenüber männlicher und weiblicher Identität sowie gegenüber individuellen männlichen und weiblichen Personen liefern." "Einer unserer Beiträge besteht darin, die Überwachung im ersten Parameter beizubehalten, um lediglich die Toxizitätsrate zu bestimmen, und den dritten Parameter einzuführen, der unüberwacht ist, um das Ziel der Toxizität automatisch zu messen."

Key Insights Distilled From

by Vahid Ghafou... at arxiv.org 04-04-2024

https://arxiv.org/pdf/2404.02205.pdf
A Holistic Indicator of Polarization to Measure Online Sexism

Deeper Inquiries

Wie könnte der vorgestellte Indikator erweitert werden, um auch andere Formen der Diskriminierung und Polarisierung in Online-Gemeinschaften zu erfassen, z.B. basierend auf Rasse, Religion oder sexueller Orientierung?

Um den vorgestellten Indikator zu erweitern und auch andere Formen der Diskriminierung und Polarisierung in Online-Gemeinschaften zu erfassen, könnte man verschiedene Ansätze verfolgen: Erweiterung der Attribute-Sets: Anstatt sich nur auf männliche und weibliche Identitäten zu konzentrieren, könnten Attribute-Sets für Rasse, Religion oder sexuelle Orientierung definiert werden. Durch die Verwendung von entsprechenden Wortlisten oder Begriffen, die mit diesen Aspekten in Verbindung stehen, könnte der Indikator die Toxizität und Polarisierung in Bezug auf diese Merkmale messen. Anpassung der Word-Embedding-Assoziationen: Die Word-Embedding-Assoziationen könnten angepasst werden, um die spezifischen Bias und Vorurteile im Zusammenhang mit Rasse, Religion oder sexueller Orientierung zu erfassen. Durch die Verwendung von entsprechenden Attribute-Sets und Wortvektoren könnte der Indikator die Diskriminierung und Polarisierung in Bezug auf diese Merkmale genauer quantifizieren. Integration von Supervised NLP-Modellen: Zusätzlich zur unsupervised Word-Embedding-Analyse könnten auch supervised NLP-Modelle eingesetzt werden, um gezielt diskriminierende oder polarisierende Kommentare zu identifizieren. Diese Modelle könnten speziell auf die Erkennung von Diskriminierung basierend auf Rasse, Religion oder sexueller Orientierung trainiert werden.

Wie könnten die Erkenntnisse aus der Analyse von Online-Gemeinschaften auch Rückschlüsse auf Dynamiken in der realen Welt zulassen?

Die Erkenntnisse aus der Analyse von Online-Gemeinschaften können wichtige Einblicke in die Dynamiken der realen Welt ermöglichen, insbesondere in Bezug auf soziale Interaktionen, Diskriminierung und Polarisierung. Hier sind einige Möglichkeiten, wie diese Erkenntnisse genutzt werden könnten: Frühwarnsysteme für soziale Konflikte: Durch die Analyse von Online-Diskussionen und der Identifizierung von toxischen oder diskriminierenden Mustern können Frühwarnsysteme entwickelt werden, um potenzielle soziale Konflikte oder Spannungen in der realen Welt vorherzusagen. Informationsgrundlage für politische Entscheidungsträger: Politikverantwortliche könnten die Erkenntnisse aus der Analyse von Online-Gemeinschaften nutzen, um fundierte Entscheidungen in Bezug auf Regulierungsmaßnahmen oder Maßnahmen zur Förderung von Inklusion und Vielfalt zu treffen. Identifizierung von gesellschaftlichen Herausforderungen: Durch die Analyse von Diskussionen und Interaktionen in Online-Gemeinschaften können gesellschaftliche Herausforderungen und strukturelle Probleme aufgedeckt werden, die in der realen Welt existieren. Dies könnte dazu beitragen, gezielte Maßnahmen zur Bekämpfung von Diskriminierung und Ungleichheit zu entwickeln.

Welche Möglichkeiten gibt es, den Indikator in die Praxis umzusetzen, um Moderatoren und Politikverantwortliche bei der Regulierung von Online-Gemeinschaften zu unterstützen?

Um den Indikator in die Praxis umzusetzen und Moderatoren sowie Politikverantwortliche bei der Regulierung von Online-Gemeinschaften zu unterstützen, könnten folgende Schritte unternommen werden: Entwicklung eines Dashboard-Tools: Ein interaktives Dashboard könnte erstellt werden, das den Indikator in Echtzeit anzeigt und es Moderatoren ermöglicht, die Toxizität und Polarisierung in ihren Gemeinschaften zu überwachen. Automatisierte Warnsysteme: Basierend auf den Ergebnissen des Indikators könnten automatisierte Warnsysteme implementiert werden, die Moderatoren benachrichtigen, wenn die Toxizität oder Polarisierung in einer Gemeinschaft ein bestimmtes Niveau erreicht. Schulungen und Richtlinien: Die Ergebnisse des Indikators könnten genutzt werden, um Schulungen und Richtlinien für Moderatoren und Politikverantwortliche zu entwickeln, die ihnen helfen, angemessen auf toxische Inhalte und polarisierende Diskussionen zu reagieren. Zusammenarbeit mit Plattformbetreibern: Durch die Zusammenarbeit mit den Betreibern von Online-Plattformen könnten die Ergebnisse des Indikators genutzt werden, um Richtlinien und Maßnahmen zur Regulierung von Online-Gemeinschaften zu verbessern und die Sicherheit und Inklusion der Nutzer zu fördern.
0
visual_icon
generate_icon
translate_icon
scholar_search_icon
star