Dieser Artikel untersucht die Leistungsfähigkeit verschiedener Deep Reinforcement Learning (DRL) Algorithmen für die Steuerung von Heizung, Lüftung und Klimaanlagen (HVAC) in Gebäuden.
Zunächst wird der Hintergrund und die Motivation für den Einsatz von DRL in der HVAC-Steuerung erläutert. Traditionelle Ansätze wie regelbasierte Regler und modellbasierte prädiktive Kontrolle haben Einschränkungen in Bezug auf Skalierbarkeit, Anpassungsfähigkeit und Komplexität. DRL bietet dagegen die Möglichkeit, komplexe Steuerstrategien aus Daten zu lernen.
Für die Experimente wurden zwei Gebäudemodelle aus dem Sinergym-Framework verwendet: 5ZoneAutoDXVAV, ein Bürogebäude, und 2ZoneDataCenterHVAC, ein Rechenzentrum. Die Agenten wurden in drei verschiedenen Klimabedingungen (heiß-trocken, gemischt-feucht, kühl-maritim) trainiert und evaluiert. Als DRL-Algorithmen kamen PPO, TD3 und SAC zum Einsatz, die mit einem regelbasierten Regler (RBC) verglichen wurden.
Die Ergebnisse zeigen, dass SAC in den meisten Szenarien die beste Leistung in Bezug auf Komfort und Energieverbrauch erzielt. Allerdings übertrifft der RBC die DRL-Agenten in einigen Fällen. Weitere Experimente untersuchten die Robustheit der Agenten gegenüber unbekannten Wetterbedingungen sowie den Einsatz von sequenziellem Lernen. Dabei zeigte sich, dass die DRL-Agenten Schwierigkeiten haben, sich an wechselnde Komfortanforderungen anzupassen.
Abschließend wurde der Einfluss der Gewichtung von Komfort und Verbrauch in der Belohnungsfunktion analysiert. Hier zeigt sich ein Zielkonflikt, bei dem eine Verbesserung des Komforts zu einem höheren Energieverbrauch führt.
Insgesamt bestätigt diese Studie das Potenzial von DRL-Algorithmen für die HVAC-Steuerung, identifiziert aber auch Herausforderungen in Bezug auf Generalisierung, inkrementelles Lernen und die Optimierung konkurrierender Ziele.
To Another Language
from source content
arxiv.org
Deeper Inquiries