In dieser Arbeit analysieren die Autoren eine fundamentale Einschränkung äquivarianter Funktionen im Umgang mit Symmetriebrechung. Sie zeigen, dass es wichtig ist, dies in verschiedenen Anwendungen des maschinellen Lernens zu berücksichtigen, indem man die Äquivarianzanforderung lockert.
Zunächst erklären die Autoren das Konzept der Äquivarianz und zeigen, dass äquivariante Funktionen die Symmetrie ihrer Eingaben erhalten müssen. Dies führt dazu, dass äquivariante Funktionen nicht in der Lage sind, Symmetrien auf Ebene der einzelnen Datenpunkte zu brechen.
Um dieses Problem zu lösen, führen die Autoren das Konzept der "relaxierten Äquivarianz" ein. Dieses erlaubt es, Symmetrien zu brechen, ohne die Vorteile der Äquivarianz vollständig aufzugeben. Sie zeigen, wie man äquivariante mehrschichtige Perzeptrone so anpassen kann, dass sie relaxierte Äquivarianz erfüllen.
Abschließend diskutieren die Autoren verschiedene Anwendungsgebiete, in denen Symmetriebrechung relevant ist, wie Physikmodellierung, Graphenrepräsentationslernen, kombinatorische Optimierung und äquivariantes Decoding. Sie argumentieren, dass ihr Ansatz einen wichtigen ersten Schritt darstellt, um Symmetriebrechung im maschinellen Lernen besser zu verstehen.
To Another Language
from source content
arxiv.org
Deeper Inquiries