Effizientes Lernen von monotonen Operatoren mit Anwendungen auf nichtlineare inverse Probleme
In dieser Arbeit wird ein neuartiger Ansatz zum Lernen monotoner neuronaler Netzwerke durch eine neu definierte Regularisierungsfunktion vorgestellt. Der vorgeschlagene Ansatz ist besonders effektiv beim Lösen von Variationsproblemen, insbesondere monotonen Einschlussproblemen, die häufig in der Bildverarbeitung auftreten. Der Forward-Backward-Forward-Algorithmus (FBF) wird verwendet, um diese Probleme zu lösen, und bietet eine Lösung auch dann, wenn die Lipschitz-Konstante des neuronalen Netzwerks unbekannt ist. Darüber hinaus bietet der FBF-Algorithmus Konvergenzgarantien unter der Bedingung, dass der gelernte Operator monoton ist.