Der Artikel stellt einen allgemeinen Rahmen für die Riemannsche Batch-Normalisierung (RBN) auf Lie-Gruppen vor, der als LieBN bezeichnet wird. LieBN bietet die theoretische Garantie, sowohl den Riemannschen Mittelwert als auch die Varianz zu kontrollieren.
Zunächst werden die Grundlagen zu Lie-Gruppen und der Geometrie von symmetrisch positiv definiten (SPD) Mannigfaltigkeiten erläutert. Dann wird die Erweiterung der Batch-Normalisierung von euklidischen Räumen auf Lie-Gruppen diskutiert. Dafür werden die Konzepte der Zentrierung, Skalierung und Verschiebung auf Lie-Gruppen definiert.
Anschließend wird LieBN auf SPD-Mannigfaltigkeiten angewendet. Dazu werden die bestehenden Lie-Gruppen-Strukturen auf SPD-Mannigfaltigkeiten verallgemeinert, indem das Konzept der Deformation verwendet wird. Darauf aufbauend werden spezifische Normalisierungsschichten für SPD-Neuronalnetze vorgestellt.
Die Effektivität des Ansatzes wird anhand von drei Experimenten demonstriert: Radar-Erkennung, Erkennung menschlicher Aktionen und EEG-Klassifizierung. Die Ergebnisse zeigen, dass LieBN die Leistung von SPD-Neuronalnetzen im Vergleich zu bestehenden Methoden verbessern kann.
To Another Language
from source content
arxiv.org
Principais Insights Extraídos De
by Ziheng Chen,... às arxiv.org 03-19-2024
https://arxiv.org/pdf/2403.11261.pdfPerguntas Mais Profundas