Ein neuartiges Graph-U-Net-Modell, MAgNET, das innovative Multichannel-Aggregations- und Graph-Pooling-/Unpooling-Schichten verwendet, um effizient nichtlineare Finite-Elemente-Simulationen zu beschleunigen.
Wir entwickeln neuronale k-Formen, eine Methode zum Lernen von Darstellungen von Simplizialkozyklen, um Aufgaben auf eingebetteten Graphen und Simplizialkomplexen zu lösen. Im Gegensatz zu den vorherrschenden Paradigmen im geometrischen Tiefenlernen nimmt unser Ansatz eine grundlegend andere neuartige Perspektive ein, die auf der Integration von Formen im umgebenden Merkmalsraum basiert.
Die Autoren generalisieren die Geometrische Algebra Transformer (GATr)-Architektur, um beliebige geometrische (oder Clifford-) Algebren zu unterstützen. Sie untersuchen die Vor- und Nachteile der Verwendung der Euklidischen, Projektiven und Konformen Algebra für äquivariante Transformatoren-Architekturen.