Das vorgestellte System verwendet eine mehrschichtige Architektur, bestehend aus einer Sensorerfassungsschicht, einer Edge-Computing-Schicht und einer Cloud-Computing-Schicht. Die Sensorschicht erfasst Umgebungs- und Systemdaten, die an die Edge-Computing-Schicht gesendet werden. Dort führen Edge-Server eine Echtzeitanalyse und lokale Entscheidungsfindung durch. Deep-Reinforcement-Learning-Modelle in dieser Schicht sagen Systemverhalten vorher und steuern es, um einen digitalen Zwilling zu erstellen, der Betriebsabläufe vorhersagt und optimiert. Die Cloud-Computing-Schicht überwacht das gesamte System, bietet leistungsfähige Rechenleistung und Speicher, um Steuerungsstrategien und Systemlogik zu verfeinern.
Das System verwendet einen leichtgewichtigen Deep-Reinforcement-Learning-Algorithmus, der an die begrenzten Rechenressourcen der Edge-Computing-Knoten angepasst ist. Außerdem wurde ein dynamischer, kollaborativer, verteilter Optimierungsalgorithmus entwickelt, um eine globale Steuerungsoptimierung durch die Zusammenarbeit von Cloud und Edge zu erreichen.
Die Experimente zeigen, dass dieser Ansatz die Kommunikationslatenz zwischen Cloud und Edge deutlich reduziert, die Steuerungslatenz senkt und die Steuerungsqualität und -kosteneffizienz im Vergleich zu rein cloudbasierten Architekturen verbessert. In einem Anwendungsszenario zur Überwachung und Fehlererkennung eines Industriekessels übertraf der Deep-Reinforcement-Learning-basierte Ansatz die herkömmliche PID-Steuerung in Bezug auf Belohnungen, Stabilität und Wirtschaftlichkeit.
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Jingyu Xu,We... ב- arxiv.org 03-14-2024
https://arxiv.org/pdf/2403.07923.pdfשאלות מעמיקות