Der Artikel untersucht die Lernprobleme im Zusammenhang mit Spike-Neuronalen-Netzwerken (SNNs). Insbesondere werden Hypothesenmengen von SNNs mit affinen zeitlichen Encodern und Decodern sowie einfachen Spike-Neuronen mit nur positiven synaptischen Gewichten betrachtet.
Es wird gezeigt, dass die Positivität der Gewichte weiterhin eine breite Palette an Ausdrucksfähigkeitsresultaten ermöglicht, einschließlich ratenoptimaler Approximation glatter Funktionen oder Approximation ohne Fluch der Dimensionalität. Darüber hinaus wird gezeigt, dass Spike-Neuronale-Netzwerke mit positiven Gewichten kontinuierlich von ihren Parametern abhängen, was klassische Aussagen zur Generalisierung auf der Grundlage von Überdeckungszahlen erleichtert.
Schließlich wird beobachtet, dass aus Sicht der Generalisierung, im Gegensatz zu Feedforward-Neuronalen-Netzwerken oder früheren Ergebnissen für allgemeine Spike-Neuronale-Netzwerke, die Tiefe nur einen geringen bis keinen nachteiligen Einfluss auf die Generalisierungsfähigkeiten hat.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by A. Martina N... о arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.04549.pdfГлибші Запити