In dieser Arbeit stellen wir neuronale k-Formen vor, eine Methode zum Lernen von Darstellungen von Simplizialkozyklen, um Aufgaben auf eingebetteten Graphen und Simplizialkomplexen zu lösen.
Im Gegensatz zu den vorherrschenden Paradigmen im geometrischen Tiefenlernen, die sich auf Nachrichten-Durchreichung konzentrieren, verfolgen wir einen völlig anderen Ansatz und nutzen zusätzliche geometrische Informationen aus einem Datensatz, um robuste und interpretierbare Darstellungen der Eingabedaten zu erhalten.
Unser Schlüsseleinblick ist die Verwendung von differenziellen k-Formen in Rn. Eine k-Form in Rn kann über jeden eingebetteten k-Simplex integriert werden, um eine reelle Zahl zu erzeugen. Daher erzeugt ein ℓ-Tupel von k-Formen eine ℓ-dimensionale Darstellung des Simplex unabhängig von jeder Nachrichten-Durchreichung. Aus dieser Perspektive spielen k-Formen die Rolle von global konsistenten Merkmalsabbildungen über den Raum der eingebetteten k-Simplizes, die die geometrische Semantik und Interpretierbarkeit der Integration besitzen.
Wir zeigen, dass unser Ansatz besser in der Lage ist, Informationen aus geometrischen Graphen zu nutzen als bestehende Nachrichten-Durchreichungs-Neuronale-Netzwerke. Darüber hinaus ist unsere Methode effizient und allgemein auf eine Vielzahl von Eingangskomplexen, einschließlich Graphen, Simplizialkomplexen und Zellkomplexen, anwendbar.
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Kelly Maggs,... ב- arxiv.org 03-18-2024
https://arxiv.org/pdf/2312.08515.pdfשאלות מעמיקות