Trainieren vollständig verbundener neuronaler Netze ist ∃R-vollständig
Das Trainieren vollständig verbundener zweischichtiger neuronaler Netze ist ∃R-vollständig, selbst wenn es nur zwei Eingabe- und zwei Ausgabeneuronen gibt, die Anzahl der Datenpunkte linear in der Anzahl der versteckten Neuronen ist, es nur 13 verschiedene Etiketten gibt, der Zielfehlerwert 0 ist und die ReLU-Aktivierungsfunktion verwendet wird.