Durch Vergiftung vortrainierter Modelle können Angreifer die Wahrscheinlichkeit deutlich erhöhen, dass Details des Trainingsdatensatzes eines Opfers preisgegeben werden, wenn das Opfer das vergiftete Modell nachtrainiert.
Angreifer können vortrainierte Modelle manipulieren, um Privatsphäre-Daten von Nutzern zu stehlen, die diese Modelle für ihre Anwendungen finetunen.