Der Artikel beschreibt, wie hierarchische Konzepte in drei Arten von geschichteten neuronalen Netzwerken dargestellt werden können: vorwärtsgerichtete Netzwerke mit hoher Konnektivität, vorwärtsgerichtete Netzwerke mit niedriger Konnektivität und geschichtete Netzwerke mit niedriger Konnektivität und sowohl Vorwärts- als auch "lateralen" Kanten innerhalb der Schichten.
Um Fehlertoleranz zu erreichen, verwenden die Darstellungen mehrere repräsentierende Neuronen für jedes Konzept. Der Artikel zeigt, wie die Erkennung in allen drei Einstellungen funktionieren kann, und quantifiziert, wie die Wahrscheinlichkeit der korrekten Erkennung von verschiedenen Parametern abhängt, einschließlich der Anzahl der Repräsentanten und der Wahrscheinlichkeit des Neuronausfalls.
Außerdem wird informell diskutiert, wie diese Darstellungen in allen drei Netzwerktypen gelernt werden könnten. Für die vorwärtsgerichteten Netzwerke ähneln die Lernalgorithmen denen, die in früheren Arbeiten verwendet wurden, während die Algorithmen für Netzwerke mit lateralen Kanten im Allgemeinen von Arbeiten zur Assembly-Kalkulusmotiviert sind.
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések