Der Artikel präsentiert einen neuartigen Ansatz zur Transformation von Zufallswäldern in neuronale Netze, genannt "Neural Random Forest Imitation" (NRFI).
Zunächst wird ein Verfahren zur Generierung von Trainingsdaten aus einem gegebenen Zufallswald vorgestellt. Dabei werden die Entscheidungsgrenzen der Bäume ausgenutzt, um Eingabe-Ziel-Paare zu erzeugen. Diese Daten werden dann verwendet, um ein neuronales Netz zu trainieren, das das Verhalten des Zufallswaldes imitiert.
Im Gegensatz zu bisherigen direkten Abbildungsmethoden, die sehr ineffiziente neuronale Netzarchitekturen erzeugen, ermöglicht der vorgeschlagene Imitationsansatz die Erzeugung deutlich kompakterer neuronaler Netze, die die Entscheidungsgrenzen des Zufallswaldes effizient lernen.
Die generierten neuronalen Netze sind differenzierbar und können als Startpunkt für weitere Feinabstimmung verwendet werden. Außerdem können sie nahtlos in trainierbare Pipelines integriert werden, was die Beschleunigung und Parallelisierung durch GPUs ermöglicht.
Experimente auf verschiedenen Benchmarkdatensätzen zeigen, dass die erzeugten neuronalen Netze eine ähnliche oder sogar bessere Genauigkeit als der Ausgangszufallswald aufweisen, bei gleichzeitig deutlich geringerer Parameterzahl.
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Christoph Re... às arxiv.org 04-05-2024
https://arxiv.org/pdf/1911.10829.pdfPerguntas Mais Profundas