Core Concepts
Durch den Einsatz von Feedback aus einem nachgelagerten Vorhersagemodell während des Trainings kann die Nützlichkeit von synthetischen Tabellendaten, die von einem Generativen Adversariellen Netzwerk (GAN) erzeugt werden, erheblich gesteigert werden.
Abstract
In dieser Arbeit wird eine neuartige GAN-Architektur namens Downstream Feedback Generative Adversarial Network (DSF-GAN) vorgestellt, die Feedback von einem nachgelagerten Vorhersagemodell nutzt, um die Verlustfunktion des Generators zu verbessern und so die Nützlichkeit der generierten synthetischen Daten zu erhöhen.
Die Kernidee ist es, während des GAN-Trainings einen Klassifikator oder Regressor auf den synthetischen Daten zu trainieren und den Verlust dieses Modells als zusätzlichen Term in die Verlustfunktion des Generators einzubinden. Dadurch wird der Generator dazu angeregt, Daten zu erzeugen, die für den eigentlichen Zielvorhergesagezweck besser geeignet sind.
Die Experimente auf zwei Datensätzen zeigen, dass die mit DSF-GAN generierten synthetischen Daten zu einer höheren Leistung des Downstream-Modells führen als Daten, die mit einem herkömmlichen GAN-Ansatz erzeugt wurden. Dies belegt die Wirksamkeit des Downstream-Feedbacks zur Steigerung der Nützlichkeit synthetischer Tabellendaten.
Mögliche Erweiterungen für zukünftige Arbeiten wären der Einsatz anderer Formen von Feedback oder Feedback-Modellen.
Stats
Die Leistung des Downstream-Modells, das auf den synthetischen Daten trainiert wurde, zeigt eine Verbesserung gegenüber dem Modell, das auf den Daten ohne Feedback-Mechanismus trainiert wurde:
Für den Adult-Datensatz stieg die Präzision von 0,575 auf 0,598 und der Recall von 0,441 auf 0,485.
Für den Hauspreis-Datensatz sank der RMSE-Fehler von 0,0118 auf 0,0115 und das R2-Gütemaß stieg von 0,3607 auf 0,3903.
Quotes
Keine relevanten wörtlichen Zitate identifiziert.