Core Concepts
Wir präsentieren einen einfachen randomisierten Algorithmus, der eine Matrix mit einer vorgegebenen Sparsitätsstruktur approximiert, wobei die Approximationsfehler-Norm höchstens (1+ε) mal so groß ist wie der bestmögliche Fehler. Der Algorithmus benötigt dafür nur O(s/ε) nicht-adaptive Matrixvektor-Produkte, wobei s die maximale Anzahl der Nichtnull-Einträge pro Zeile der gewünschten Sparsitätsstruktur ist.
Abstract
Der Artikel befasst sich mit dem Problem, eine Matrix A durch eine Matrix mit einer vorgegebenen Sparsitätsstruktur S zu approximieren, wobei der Approximationsfehler in der Frobenius-Norm möglichst gering sein soll.
Der Algorithmus funktioniert wie folgt:
- Es wird eine d x m Zufallsmatrix G mit unabhängigen standardnormalverteilten Einträgen erzeugt.
- Die Matrix Z = AG wird berechnet, was m nicht-adaptive Matrixvektor-Produkte erfordert.
- Für jede Zeile i von A wird dann ein Least-Squares-Problem gelöst, um den i-ten Zeilenvektor von e
A zu bestimmen, wobei die Nichtnull-Einträge von e
A durch die Sparsitätsstruktur S vorgegeben sind.
Die Autoren zeigen, dass dieser Algorithmus eine (1+ε)-Approximation an A liefert, wobei nur O(s/ε) Matrixvektor-Produkte benötigt werden, wenn jede Zeile von S höchstens s Nichtnull-Einträge hat. Außerdem beweisen sie eine untere Schranke, die zeigt, dass diese Komplexität optimal ist, selbst für spezielle Fälle wie die Approximation durch eine Diagonalmatrix.
Darüber hinaus vergleichen die Autoren ihren Algorithmus mit klassischen Färbungsmethoden und zeigen, dass es Situationen gibt, in denen ihr Algorithmus deutlich besser abschneidet.
Stats
Die Approximationsfehler-Norm ist höchstens (1+ε) mal so groß wie der bestmögliche Fehler.
Der Algorithmus benötigt nur O(s/ε) nicht-adaptive Matrixvektor-Produkte, wobei s die maximale Anzahl der Nichtnull-Einträge pro Zeile der gewünschten Sparsitätsstruktur ist.
Für jede Zeile i von A wird ein Least-Squares-Problem der Größe m x |S_i| gelöst, wobei S_i die Menge der Nichtnull-Einträge in Zeile i von S ist.
Quotes
"Wir präsentieren einen einfachen randomisierten Algorithmus, der eine Matrix mit einer vorgegebenen Sparsitätsstruktur approximiert, wobei die Approximationsfehler-Norm höchstens (1+ε) mal so groß ist wie der bestmögliche Fehler."
"Der Algorithmus benötigt dafür nur O(s/ε) nicht-adaptive Matrixvektor-Produkte, wobei s die maximale Anzahl der Nichtnull-Einträge pro Zeile der gewünschten Sparsitätsstruktur ist."
"Wir beweisen auch eine untere Schranke, die zeigt, dass diese Komplexität optimal ist, selbst für spezielle Fälle wie die Approximation durch eine Diagonalmatrix."