Die Studie präsentiert xMLP, eine innovative Deep-Learning-Architektur, die ausschließlich quadratische Aktivierungsfunktionen verwendet und dabei die Leistung von herkömmlichen Modellen mit ReLU-Aktivierung erreicht oder übertrifft.
Bisherige Ansätze für private Inferenz (PI) hatten das Problem, dass die Verwendung von nicht-linearen Aktivierungen wie ReLU zu einer unpraktisch hohen PI-Latenz führte, da ReLU den Einsatz von rechenintensiven Mehrparteien-Berechnungsverfahren erfordert. Quadratische Aktivierungen können hingegen deutlich effizienter verarbeitet werden.
Die Autoren analysieren zunächst, warum quadratische Aktivierungen in herkömmlichen neuronalen Netzen oft schlechter abschneiden als ReLU. Sie führen dies auf einen "Informationskumulationseffekt" zurück. Darauf aufbauend entwickeln sie mit xMLP eine Architektur, die ausschließlich quadratische Aktivierungen verwendet, aber dennoch die Leistung von ReLU-basierten Modellen erreicht oder übertrifft.
Die Experimente auf CIFAR-100, Tiny-ImageNet und ImageNet zeigen, dass xMLP-Modelle konsistent bessere Leistung als ResNet-Modelle mit weniger Aktivierungsschichten und Parametern erzielen, während sie die Leistung ihrer ReLU-basierten Varianten beibehalten. Beim Einsatz für private Inferenz übertrifft xMLP den bisherigen Stand der Technik deutlich: Es erzielt eine um 0,58% höhere Genauigkeit bei 7-fach schnellerer PI-Geschwindigkeit. Darüber hinaus liefert es eine signifikante Genauigkeitsverbesserung von 4,96%, während es die gleiche PI-Latenz beibehält. Wenn die PI auf die GPU ausgelagert wird, ist xMLP bis zu 700-mal schneller als das bisherige Spitzenmodell bei vergleichbarer Genauigkeit.
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Jiajie Li,Ji... um arxiv.org 03-14-2024
https://arxiv.org/pdf/2403.08024.pdfTiefere Fragen