Der Artikel stellt einen neuen Ansatz namens BEND (Bagging Deep Learning Training Based on Efficient Neural Network Diffusion) vor, um das Bagging-Verfahren für Deep-Learning-Modelle effizienter zu gestalten.
Der Kerngedanke ist, anstatt mehrere Deep-Learning-Modelle von Grund auf neu zu trainieren, ein Diffusionsmodell zu verwenden, um effizient eine Vielzahl an Basisklassifikatoren mit hoher Diversität zu generieren. Dazu werden zunächst einige Teilmengen der Modellparameter trainiert. Diese werden dann verwendet, um ein Autoencoder- und Diffusionsmodell zu trainieren, das in der Lage ist, aus Rauschen neue Modellparameter zu erzeugen.
Anschließend werden diese generierten Modellparameter mit den restlichen, eingefrorenen Modellteilen kombiniert, um die Basisklassifikatoren zu erhalten. Zwei Strategien, sBEND und aBEND, werden vorgestellt, um die Vorhersagen der Basisklassifikatoren zu aggregieren.
Die Experimente zeigen, dass BEND die Genauigkeit im Vergleich zu den Originalmodellen und den direkt generierten Modellen konsistent verbessern kann. Gleichzeitig ist BEND effizienter als traditionelle Methoden des Deep-Learning-Trainings, sobald mehr als 3 Basisklassifikatoren verwendet werden. Außerdem weisen die generierten Modelle eine höhere Diversität auf als die Originalmodelle.
Till ett annat språk
från källinnehåll
arxiv.org
Djupare frågor