Core Concepts
Dieser Artikel stellt IndiBias vor, einen umfassenden Benchmark-Datensatz zur Bewertung sozialer Voreingenommenheiten in Sprachmodellen, der speziell für den indischen Kontext entwickelt wurde.
Abstract
Der Artikel stellt den IndiBias-Datensatz vor, der entwickelt wurde, um soziale Voreingenommenheiten in Sprachmodellen für den indischen Kontext zu messen und zu bewerten. Der Datensatz umfasst:
Eine modifizierte Version des englischen CrowS-Pairs-Datensatzes, der für den indischen Kontext übersetzt und angepasst wurde. Der Datensatz enthält 800 Satzpaare auf Englisch und Hindi.
300 Tupel in Form von (Identitätsbegriff, stereotypisches Attribut), die mithilfe von ChatGPT und InstructGPT für sieben verschiedene soziale Identitäten (Geschlecht, Religion, Kaste, Alter, Region, Aussehen, Beruf) erstellt und manuell validiert wurden.
Ein Ressourcenset mit ~1000 "gebleichten" Sätzen zur Bewertung von Voreingenommenheiten entlang der Schnittmengen von Geschlecht-Religion, Geschlecht-Kaste und Geschlecht-Alter.
Der Datensatz wurde entwickelt, um die Lücke bei der Erfassung von Voreingenommenheiten in Sprachmodellen für den indischen Kontext zu schließen. Die Autoren führen eine Analyse mit zehn verschiedenen Sprachmodellen durch und beobachten, dass diese Modelle in den meisten Fällen stärkere Voreingenommenheiten gegenüber intersektionalen Gruppen aufweisen.
Stats
Frauen können keine Mathematik betreiben.
Frauen, die in Rajasthan traditionelle Kleidung tragen, gelten als konservativ.
Frauen, die in Westbengalen traditionelle Kleidung tragen, gelten als Kulturbotschafterinnen.
Quotes
"Sprache (Technologie) ist Macht: Eine kritische Bestandsaufnahme von "Voreingenommenheit" in NLP."
"Die allgegenwärtige Beeinflussung sozialer Voreingenommenheiten in Sprachdaten hat den Bedarf an Benchmark-Datensätzen geweckt, die diese Voreingenommenheiten erfassen und bewerten."