핵심 개념
Faire Vision-Sprache-Modelle können die Leistung und Fairness bei der Erkennung von Glaukom verbessern.
초록
Die Studie führt eine umfassende Fairness-Analyse von zwei weit verbreiteten Vision-Sprache-Modellen (CLIP und BLIP2) auf dem FairVLMed-Datensatz durch. Die Ergebnisse zeigen erhebliche Voreingenommenheiten in allen Modellen, wobei Asiaten, Männer, Nicht-Hispanier und Spanischsprachige die bevorzugten Untergruppen sind. Um diese Voreingenommenheiten zu mildern, schlagen die Autoren FairCLIP vor, einen Optimal-Transport-basierten Ansatz, der einen günstigen Kompromiss zwischen Leistung und Fairness erzielt, indem der Sinkhorn-Abstand zwischen der Gesamtverteilung der Stichproben und den Verteilungen der einzelnen demografischen Gruppen reduziert wird.
통계
Asiaten, Männer, Nicht-Hispanier und Spanischsprachige sind die bevorzugten Untergruppen bei den geschützten Merkmalen Rasse, Geschlecht, Ethnizität und Sprache.
Medizinisches Vortraining verbessert den Leistungs-Fairness-Kompromiss über alle Attribute hinweg, mit Ausnahme der Sprache.
CLIP erzielt bessere Ergebnisse als BLIP2 bei Rasse und Geschlecht, während BLIP2 bei Ethnizität und Sprache bessere Ergebnisse liefert.
인용구
"Faire Modelle sind von entscheidender Bedeutung, um Verzerrungen zu mildern und die Gleichberechtigung zu fördern, insbesondere in Anwendungen des Gesundheitswesens."
"Die komplexe Wechselwirkung von visuellen und textlichen Daten in Vision-Sprache-Modellen stellt einzigartige Herausforderungen für die Fairness dar, die bisher weitgehend unerforschte Gebiete sind, insbesondere im Kontext medizinischer Anwendungen."