Conceptos Básicos
Ein intelligentes Überwachungs- und Optimierungssystem für industrielle Systeme, das auf Deep Reinforcement Learning und Edge Computing basiert, um Echtzeitvorhersage und -steuerung von Systemzuständen zu ermöglichen und die Zusammenarbeit zwischen Edge und Cloud zu fördern, um die Steuerungsqualität und -reaktionszeit zu verbessern.
Resumen
Das vorgestellte System verwendet eine mehrschichtige Architektur, bestehend aus einer Sensorerfassungsschicht, einer Edge-Computing-Schicht und einer Cloud-Computing-Schicht. Die Sensorschicht erfasst Umgebungs- und Systemdaten, die an die Edge-Computing-Schicht gesendet werden. Dort führen Edge-Server eine Echtzeitanalyse und lokale Entscheidungsfindung durch. Deep-Reinforcement-Learning-Modelle in dieser Schicht sagen Systemverhalten vorher und steuern es, um einen digitalen Zwilling zu erstellen, der Betriebsabläufe vorhersagt und optimiert. Die Cloud-Computing-Schicht überwacht das gesamte System, bietet leistungsfähige Rechenleistung und Speicher, um Steuerungsstrategien und Systemlogik zu verfeinern.
Das System verwendet einen leichtgewichtigen Deep-Reinforcement-Learning-Algorithmus, der an die begrenzten Rechenressourcen der Edge-Computing-Knoten angepasst ist. Außerdem wurde ein dynamischer, kollaborativer, verteilter Optimierungsalgorithmus entwickelt, um eine globale Steuerungsoptimierung durch die Zusammenarbeit von Cloud und Edge zu erreichen.
Die Experimente zeigen, dass dieser Ansatz die Kommunikationslatenz zwischen Cloud und Edge deutlich reduziert, die Steuerungslatenz senkt und die Steuerungsqualität und -kosteneffizienz im Vergleich zu rein cloudbasierten Architekturen verbessert. In einem Anwendungsszenario zur Überwachung und Fehlererkennung eines Industriekessels übertraf der Deep-Reinforcement-Learning-basierte Ansatz die herkömmliche PID-Steuerung in Bezug auf Belohnungen, Stabilität und Wirtschaftlichkeit.
Estadísticas
Die Deep-Reinforcement-Learning-Methode erzielte im Vergleich zur PID-Methode eine um 36% höhere durchschnittliche Belohnung von 3820 Punkten über einen Monat.
Der Deep-Reinforcement-Learning-Regler führte zu einem 29% geringeren Ausfall des Kesselsystems und verlängerte den unterbrechungsfreien Betrieb um 15 Tage.
Citas
"Durch den Einsatz verteilten Deep Reinforcement Learnings mit Edge Computing konnte die Kommunikationszeit zwischen Cloud und Edge deutlich reduziert und die Steuerungslatenz gesenkt werden."
"Der Deep-Reinforcement-Learning-basierte Ansatz übertraf die herkömmliche PID-Steuerung in Bezug auf Belohnungen, Stabilität und Wirtschaftlichkeit in dem Anwendungsszenario zur Überwachung und Fehlererkennung eines Industriekessels."