Effiziente und genaue Aktivierungsfunktionen für datenschutzfreundliche neuronale Netzwerke
Um die Genauigkeit von datenschutzfreundlichen neuronalen Netzwerken zu verbessern, wird eine batch-orientierte elementweise approximative Aktivierung vorgeschlagen, die eine feinkörnige, trainierbare Approximation der nichtlinearen ReLU-Aktivierungsfunktion ermöglicht. Durch die elementweise Datenpakete können große Batch-Größen verarbeitet werden, was die amortisierte Inferenzzeit deutlich reduziert.