Ähnlichkeitsbasierter Labelinferenz-Angriff gegen das Training und die Inferenz von Split Learning
Selbst wenn der Angreifer keine Kenntnis über die Architektur des Lernmodells hat, können die ausgetauschten Zwischenergebnisse, einschließlich der zerkleinerten Daten und Gradienten während des Trainings und der Inferenz von Split Learning, bereits die privaten Labels preisgeben. Basierend auf einer mathematischen Analyse der möglichen Labelleaks schlagen wir Ähnlichkeitsmaße für Gradienten und zerkleinerte Daten vor, um effiziente Labelinferenz-Angriffe sowohl während des Trainings als auch der Inferenz zu entwerfen.