Diese Arbeit ergänzt den bestehenden Satz numerischer Optimierungsalgorithmen um eine Riemannsche Trust-Region-Methode, die speziell auf die symplektische Stiefel-Mannigfaltigkeit zugeschnitten ist. Dazu leiten wir eine Matrixformel für den Riemannschen Hessischen unter einer rechtsinvarianten Metrik ab und schlagen eine neuartige Retraktion zur Approximation der Riemannschen Geodäten vor.
Der maximale Wachstumsfaktor bei der Gauß-Elimination mit vollständigem Pivotisieren ist größer als n, wenn und nur wenn n > 10. Außerdem ist der Limes superior des Verhältnisses des Wachstumsfaktors zu n größer oder gleich 3,317.
Das Quantile Randomized Kaczmarz-Verfahren konvergiert auch dann mindestens linear, wenn das lineare System durch zeitlich veränderliches Rauschen und Korruption gestört ist. Die Konvergenzrate hängt nur von der Korruptionsrate ab, während der Konvergenzhorizont sowohl von der Korruptionsrate als auch vom zeitlich veränderlichen Rauschen abhängt.
In dieser Arbeit werden effiziente Algorithmen für die Berechnung und Approximation von Aufmerksamkeitskernel-Regressionen vorgestellt. Dazu werden zwei Arten von Proxys für die Aufmerksamkeitsmatrix definiert und entsprechende Regressionsprobleme gelöst.
In dieser Arbeit wird eine unendlich-dimensionale Erweiterung der randomisierten Nyström-Approximation entwickelt und analysiert, um niedrigrang-Approximationen von nicht-negativen selbstadjungierten Spurklassen-Operatoren zu berechnen. Die Analyse liefert Erwartungswert- und Wahrscheinlichkeitsschranken für den Approximationsfehler in verschiedenen Operatornormen.
Wir präsentieren einen einfachen randomisierten Algorithmus, der eine Matrix mit einer vorgegebenen Sparsitätsstruktur approximiert, wobei die Approximationsfehler-Norm höchstens (1+ε) mal so groß ist wie der bestmögliche Fehler. Der Algorithmus benötigt dafür nur O(s/ε) nicht-adaptive Matrixvektor-Produkte, wobei s die maximale Anzahl der Nichtnull-Einträge pro Zeile der gewünschten Sparsitätsstruktur ist.
Wir präsentieren einen effizienten Algorithmus zur Approximation der Logarithmus-Determinante großer, dünnbesetzter, positiv definiter Matrizen. Der Algorithmus basiert auf dünn besetzten Näherungsinversen und verwendet Graphensplines, um die Genauigkeit zu erhöhen.
Eine Methode zur Induktion statischen Pivotierens wird vorgestellt, um die Leistung von GPU-basierten linearen Gleichungslösern zu verbessern. Durch Lösen einer Reihe von parallel perturbierten Systemen und anschließende Rekonstruktion der Originallösung kann eine hohe Genauigkeit erreicht werden.
Die Autoren untersuchen verschiedene Strategien, um Breakdown-Probleme bei der Berechnung unvollständiger Cholesky-Zerlegungen in halber Genauigkeit zu vermeiden und eine robuste und effiziente Implementierung zu erreichen.
Die Konvergenz der vollständigen Orthogonalisierungsmethode (FOM) ist nahezu so gut wie die optimale Konvergenz der verallgemeinerten minimalen Residuenmethode (GMRES).