核心概念
本文提出了一種利用深度強化學習 (DRL) 優化逆變器控制器增益的新方法,並探討了固定增益和自適應增益兩種策略在提升電網系統穩定性方面的優缺點和應用挑戰。
統計資料
從 2019 年開始,基於強化學習的電力系統穩定性論文數量急劇增加,2022 年達到 80 篇的峰值。
Simulink 的 EMT 仿真每秒需要大約 20,000 個計算步驟。
強化學習代理需要 50 到 2,000 個訓練片段才能達到合理的收斂。
固定增益 DRL 模型在約 50 個片段後,獎勵穩定在 -0.1 左右。
自適應增益 DRL 模型在約 100 個片段後,獎勵達到飽和,表明訓練收斂。
引述
"One of the prominent challenges of EMT simulation is the requirement for very small time steps to accurately solve the network dynamics."
"Our experiments indicate that the RL agent requires a significant number of training episodes, ranging from 50 to 2,000, to achieve reasonable convergence."
"This approach allows us to utilize the best of both worlds; Simulink’s advanced modeling capabilities and Python’s computational power and rich RL libraries offering a more efficient and practical solution for controller tuning in IBR-based power system."