Die Studie befasst sich mit dem Problem der fairen und domänenübergreifenden maschinellen Lernmodelle in Situationen, in denen die Testdaten eine andere Verteilung als die Trainingsdaten aufweisen.
Zunächst wird ein vollständig informierter FAIRM-Orakel-Schätzer (Filtration-Assisted Invariant Risk Minimization) definiert, der optimale Eigenschaften hinsichtlich Domänengeneralisierung und algorithmischer Fairness aufweist. Dieser Orakel-Schätzer dient als Benchmark.
Anschließend wird ein praxistaugliches FAIRM-Verfahren entwickelt, das ausschließlich auf den Trainingsdomänen basiert. Es wird gezeigt, dass dieses FAIRM-Verfahren unter einer Diversitätsbedingung den Orakel-Schätzer wiederherstellen kann. Theoretische Garantien für die Domänengeneralisierung und Fairness des empirischen FAIRM-Verfahrens werden bereitgestellt.
Schließlich wird eine effiziente Umsetzung von FAIRM für hochdimensionale lineare Modelle präsentiert. Es wird bewiesen, dass dieser Algorithmus minimax-optimale Leistung in Bezug auf Domänengeneralisierung erreicht.
إلى لغة أخرى
من محتوى المصدر
arxiv.org
الرؤى الأساسية المستخلصة من
by Sai Li,Linju... في arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01608.pdfاستفسارات أعمق