Das Trainieren vollständig verbundener zweischichtiger neuronaler Netze ist ∃R-vollständig, selbst wenn es nur zwei Eingabe- und zwei Ausgabeneuronen gibt, die Anzahl der Datenpunkte linear in der Anzahl der versteckten Neuronen ist, es nur 13 verschiedene Etiketten gibt, der Zielfehlerwert 0 ist und die ReLU-Aktivierungsfunktion verwendet wird.
Flache ReLU-Neuronale Netze können schwach lineare Funktionen auf konvexen Polytop-Meshes repräsentieren, was eine Brücke zu Finite-Element-Funktionen schafft.
Erforschung der praktischen Anwendung von RTRL in realistischen Szenarien.