Core Concepts
Wir entwickeln praktische, parallelisierbare und verteilte Algorithmen für die größenbeschränkte Maximierung einer monotonen und submodularen Funktion, die sowohl im MapReduce-Modell als auch im Adaptivitätskomplexitätsmodell effizient sind.
Abstract
Die Arbeit präsentiert mehrere Beiträge für die größenbeschränkte Maximierung einer monotonen und submodularen Funktion:
Analyse von niedrig-adaptiven Verfahren, die die erforderliche Konsistenzeigenschaft erfüllen, um im verteilten MapReduce-Umfeld eingesetzt werden zu können. Dies ermöglicht den Einsatz hochparallelisierbarer Algorithmen in verteilten Systemen.
Entwicklung des ersten verteilten Algorithmus mit linearer Abfragekomplexität für dieses Problem.
Einführung einer Methode, um die maximale Kardinalitätsbeschränkung für MapReduce-Algorithmen zu erhöhen, bei zusätzlichen MapReduce-Runden.
Empirische Evaluation auf einem Cluster von 64 Maschinen, die eine Laufzeitverbesserung um eine Größenordnung durch die Kombination von MapReduce- und Adaptivitätskomplexitätsmodellen zeigt.
Stats
Die Arbeit enthält keine expliziten Statistiken oder Zahlen, die extrahiert werden könnten.
Quotes
Es sind keine hervorstechenden Zitate im Text enthalten.