Der Artikel stellt eine neue Methode namens Bias-Kompensation (BC) vor, um den durch Quantisierung verursachten Ausgabefehler in Neuronalen Netzen zu minimieren.
Zunächst wird erläutert, dass Quantisierung zwar die Speichernutzung und Rechenleistung von Neuronalen Netzen reduziert, aber oft zu erheblichen Ausgabefehlern führt, die den Einsatz des Modells behindern. Die meisten bisherigen Methoden versuchen, den nicht-konvexen Quantisierungsprozess zu optimieren, um den Ausgabefehler zu minimieren, was jedoch schwierig zu lösen ist.
Im Gegensatz dazu schlägt BC vor, einen optimierbaren Bias-Vektor direkt zu den Ausgaben der quantisierten Schichten hinzuzufügen, um den Ausgabefehler zu minimieren. Die Autoren beweisen, dass die Optimierung des Bias-Vektors ein konvexes Problem ist und immer eine geringere Ausgabe als die ursprüngliche quantisierte Ausgabe garantiert.
Umfangreiche Experimente mit Vision-Transformer-Modellen und großen Sprachmodellen zeigen, dass BC den Quantisierungsausgabefehler deutlich reduzieren und die Aufgabenleistung der quantisierten Modelle erheblich verbessern kann. Insbesondere ermöglicht BC eine 4-Bit-Quantisierung von ViT-B*, die eine um 36,89% höhere Genauigkeit auf ImageNet-1k erreicht, und verringert die Perplexität von OPT-350M mit 3-Bit-GPTQ um 5,97 auf WikiText2.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies