Die Studie präsentiert xMLP, eine innovative Deep-Learning-Architektur, die ReLU-Aktivierungen vollständig durch quadratische Aktivierungen ersetzt. Im Gegensatz zu herkömmlichen Ansätzen, die einen Kompromiss zwischen Genauigkeit und Effizienz der privaten Inferenz eingehen müssen, zeigt xMLP, dass quadratische Aktivierungen eine vergleichbare Leistung wie ReLU-basierte Modelle erreichen können, wenn die Architektur entsprechend gestaltet wird.
Die Autoren analysieren zunächst, warum quadratische Aktivierungen in der Vergangenheit schlechter abgeschnitten haben als ReLU. Sie argumentieren, dass dies auf den "Informationskompoundierungseffekt" zurückzuführen ist, bei dem tiefe Schichten in CNN-ähnlichen Netzwerken zu viele globale Informationen akkumulieren, was die Leistung beeinträchtigt. Daher wählen sie eine ViT-ähnliche Architektur, die weniger auf lokale Konnektivität setzt.
Die Experimente zeigen, dass xMLP-Modelle auf CIFAR-100, Tiny-ImageNet und ImageNet eine mit ReLU-basierten Modellen vergleichbare oder sogar bessere Genauigkeit erreichen, dabei aber deutlich weniger Parameter und Aktivierungsschichten verwenden. Darüber hinaus übertrifft xMLP in Bezug auf private Inferenz die bisherigen Spitzenreiter deutlich, indem es entweder eine um 4,96% höhere Genauigkeit bei ähnlicher Latenz oder eine 7-fach schnellere private Inferenz bei vergleichbarer Genauigkeit erreicht. Durch die Verlagerung der Berechnungen auf GPUs kann xMLP die private Inferenz-Latenz um bis zu 700-fach im Vergleich zum bisherigen Stand der Technik reduzieren.
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Jiajie Li,Ji... ที่ arxiv.org 03-14-2024
https://arxiv.org/pdf/2403.08024.pdfสอบถามเพิ่มเติม