Der Artikel zeigt, dass generalisierter Gradientenabstieg in Bezug auf eine gegebene Cartesische Rückwärtsableitungskategorie (CRDC) einen Hypergraph-Funktor von einer Hypergraph-Kategorie von allgemeinen und offenen Optimierungsproblemen zu einer Hypergraph-Kategorie von allgemeinen und offenen dynamischen Systemen induziert.
Die Domäne des Funktors besteht aus Zielfunktionen, die 1) allgemein in dem Sinne sind, dass sie in Bezug auf eine beliebige CRDC definiert sind, und 2) offen sind, da sie dekorierte Spannweiten sind, die über Variablenfreigabe mit anderen solchen Zielfunktionen komponiert werden können. Die Codomäne wird analog als Kategorie allgemeiner und offener dynamischer Systeme für die zugrunde liegende CRDC spezifiziert.
Es wird beschrieben, wie der Hypergraph-Funktor einen verteilten Optimierungsalgorithmus für beliebige zusammengesetzte Probleme induziert, die in der Domäne spezifiziert sind. Um die Arten von Problemen zu veranschaulichen, die unser Rahmen modellieren kann, wird gezeigt, dass Parameterfreigabemodelle im multitaskbasierten Lernen, einem verbreiteten Paradigma des maschinellen Lernens, ein zusammengesetztes Optimierungsproblem für eine gegebene Wahl der CRDC ergeben. Anschließend wird der Gradientenabstiegsfunktor auf dieses zusammengesetzte Problem angewendet und der resultierende verteilte Gradientenabstiegsalgorithmus zum Training von Parameterfreigabemodellen beschrieben.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Tyler Hanks,... at arxiv.org 04-01-2024
https://arxiv.org/pdf/2403.19845.pdfDeeper Inquiries