Zeroth-Order Gradient Schätzung und Hard-Thresholding für sparsitätserzwingende Optimierung
In dieser Arbeit wird ein neuer Algorithmus namens SZOHT (Stochastic Zeroth-Order Hard Thresholding) vorgestellt, der es ermöglicht, ℓ0-beschränkte Optimierungsprobleme mit Hilfe von Zeroth-Order Gradientenschätzungen zu lösen. Der Algorithmus kombiniert eine neuartige Zeroth-Order Gradientenschätzung mit dem Hard-Thresholding-Operator und bietet eine Konvergenzanalyse, die zeigt, dass SZOHT eine dimensionsunabhängige Abfragekomplexität im glatten Fall und eine schwach dimensionsabhängige Komplexität im allgemeineren Fall der beschränkten starken Glattheit (RSS) erreichen kann.