Die Studie befasst sich mit dem Problem der fairen und domänenübergreifenden maschinellen Lernmodelle in Situationen, in denen die Testdaten eine andere Verteilung als die Trainingsdaten aufweisen.
Zunächst wird ein vollständig informierter FAIRM-Orakel-Schätzer (Filtration-Assisted Invariant Risk Minimization) definiert, der optimale Eigenschaften hinsichtlich Domänengeneralisierung und algorithmischer Fairness aufweist. Dieser Orakel-Schätzer dient als Benchmark.
Anschließend wird ein praxistaugliches FAIRM-Verfahren entwickelt, das ausschließlich auf den Trainingsdomänen basiert. Es wird gezeigt, dass dieses FAIRM-Verfahren unter einer Diversitätsbedingung den Orakel-Schätzer wiederherstellen kann. Theoretische Garantien für die Domänengeneralisierung und Fairness des empirischen FAIRM-Verfahrens werden bereitgestellt.
Schließlich wird eine effiziente Umsetzung von FAIRM für hochdimensionale lineare Modelle präsentiert. Es wird bewiesen, dass dieser Algorithmus minimax-optimale Leistung in Bezug auf Domänengeneralisierung erreicht.
To Another Language
from source content
arxiv.org
Głębsze pytania