Die Studie analysiert das klassische Paradigma der Batch-Verarbeitung, bei dem eine feste Menge von Aufgaben sequenziell auf einer einzelnen CPU ausgeführt wird. Der Fokus liegt auf zwei Schlüsselaspekten: Effizienz und Fairness.
Der Autor untersucht zunächst gängige CPU-Scheduling-Algorithmen wie FCFS, SJF, SRTF, RR und Prioritätsplanung hinsichtlich ihrer Leistung in Bezug auf Wartezeit, Durchlaufzeit und Antwortzeit. Dabei werden die Stärken und Schwächen dieser Algorithmen in Bezug auf die Ziele Effizienz und Fairness herausgearbeitet.
Darauf aufbauend wird der neue Algorithmus FairBatch vorgestellt. Dieser nutzt eine dynamische Zeitscheibe, eine Vorrangzuweisung basierend auf einem robusten Verhältnis und ein periodisches Sortieren, um Fairness und Effizienz auszubalancieren. FairBatch versucht, die Nachteile traditioneller Algorithmen zu überwinden und eine optimierte Lösung für die Batch-Planung zu bieten, die sowohl Leistung als auch Systemreaktionsfähigkeit gewährleistet.
Zur Evaluierung werden verschiedene Testfälle mit unterschiedlichen Wahrscheinlichkeitsverteilungen der Burst-Zeiten verwendet, um die Leistung der Algorithmen unter realistischen Bedingungen zu untersuchen. Die Ergebnisse zeigen, dass FairBatch im Vergleich zu klassischen Ansätzen eine ausgewogene Lösung liefert, die sowohl Effizienz als auch Fairness berücksichtigt.
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Supriya Mann... um arxiv.org 04-15-2024
https://arxiv.org/pdf/2308.10062.pdfTiefere Fragen