In diesem Artikel konzentrieren wir uns auf euklidisch äquivariante PDE-CNNs, bei denen die Featurekarten durchgehend zweidimensional sind. Wir nennen diese Variante des Frameworks ein PDE-CNN.
Wir listen mehrere praktisch wünschenswerte Axiome auf und leiten daraus ab, welche PDEs in einem PDE-CNN verwendet werden sollten. Unser Ansatz zum geometrischen Lernen über PDEs ist dabei von den Axiomen der klassischen linearen und morphologischen Skalierungsraumtheorie inspiriert, die wir verallgemeinern, indem wir semifeldwertige Signale einführen.
Darüber hinaus bestätigen wir experimentell für kleine Netzwerke, dass PDE-CNNs weniger Parameter, bessere Leistung und Dateneffizienz im Vergleich zu CNNs bieten. Wir untersuchen auch, welchen Einfluss die Verwendung verschiedener Semifelder auf die Leistung der Modelle hat.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Gijs Bellaar... at arxiv.org 03-25-2024
https://arxiv.org/pdf/2403.15182.pdfDeeper Inquiries